3 риска и проблемы конфиденциальности чат-ботов, о которых вам следует знать

3 риска и проблемы конфиденциальности чат-ботов, о которых вам следует знать
Такие читатели, как вы, помогают поддержать MUO. Когда вы совершаете покупку по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Читать далее.   Замок с разбросанными вокруг клавишами клавиатуры

Чат-боты существуют уже много лет, но появление крупных языковых моделей, таких как ChatGPT и Google Bard, дало индустрии чат-ботов новую жизнь.





Миллионы людей сейчас используют чат-ботов с искусственным интеллектом по всему миру, но есть некоторые важные риски и проблемы конфиденциальности, о которых следует помнить, если вы хотите опробовать один из этих инструментов.





1. Сбор данных

Большинство людей не используют чат-ботов только для того, чтобы поздороваться. Современные чат-боты предназначены для обработки сложных вопросов и запросов и ответов на них, при этом пользователи часто включают в свои подсказки большой объем информации. Даже если вы задаете простой вопрос, вам не хочется, чтобы он выходил за рамки вашего разговора.





В соответствии с Раздел поддержки OpenAI , вы можете удалить журналы чата ChatGPT в любое время, и эти журналы будут окончательно удалены из систем OpenAI через 30 дней. Тем не менее, компания будет сохранять и проверять определенные журналы чатов, если они были помечены как вредные или неприемлемые.

Другой популярный чат-бот с искусственным интеллектом, Клод, также отслеживает ваши предыдущие разговоры. Центр поддержки Anthropic утверждает, что Клод отслеживает «ваши подсказки и выходные данные в продукте, чтобы обеспечить вам стабильное взаимодействие с продуктом с течением времени в соответствии с вашими средствами контроля». Вы можете удалить свои разговоры с Клодом, и он забудет, о чем вы говорили, но это не значит, что Anthropic немедленно удалит ваши журналы из своих систем.



Тут, конечно, возникает вопрос: сохраняются мои данные или нет? Используют ли мои данные ChatGPT или другие чат-боты?

почему файловый проводник такой медленный

Но на этом опасения не заканчиваются.





Как учится ChatGPT?

Чтобы предоставить информацию, большие языковые модели обучаются на огромных объемах данных. В соответствии с Научный фокус Только ChatGPT-4 за период обучения получил 300 миллиардов слов информации. Это не взято прямо из нескольких энциклопедий. Скорее, разработчики чат-ботов используют массу информации из Интернета для обучения своих моделей. Это могут быть данные из книг, фильмов, статей, записей в Википедии, сообщений в блогах, комментариев и даже сайтов с обзорами.

Имейте в виду, что в зависимости от политики конфиденциальности разработчика чат-бота некоторые из вышеупомянутых источников не могут использоваться в обучении.





Многие критиковали ChatGPT, утверждая, что это своего рода кошмар с точки зрения конфиденциальности. ChatGPT нельзя доверять . Итак, почему это так?

Здесь все становится немного размытым. Если вы напрямую спросите ChatGPT-3.5, имеет ли он доступ к обзорам продуктов или комментариям к статьям, вы получите категорический отрицательный ответ. Как вы можете видеть на снимке экрана ниже, GPT-3.5 заявляет, что во время обучения ему не был предоставлен доступ к комментариям к статьям пользователей или обзорам продуктов.

что можно сделать на 3д принтере
  скриншот разговора в чатgpt-3.5

Скорее, оно обучалось с использованием «разнообразного текста из Интернета, включая веб-сайты, книги, статьи и другие общедоступные письменные материалы вплоть до сентября 2021 года».

Но то же самое касается GPT-4?

Когда мы спросили GPT-4, нам сказали, что «OpenAI не использовала конкретные отзывы пользователей, личные данные или комментарии к статьям» в период обучения чат-бота. Кроме того, GPT-4 сообщил нам, что его ответы генерируются на основе «шаблонов данных, на которых [он] обучался, которые в основном состоят из книг, статей и другого текста из Интернета».

Когда мы продолжили расследование, GPT-4 заявила, что определенный контент социальных сетей действительно может быть включен в ее обучающие данные, но создатели всегда останутся анонимными. GPT-4 конкретно заявил, что «даже если контент с таких платформ, как Reddit, был частью обучающих данных, [он не имеет] доступа к конкретным комментариям, сообщениям или любым данным, которые можно связать с отдельным пользователем».

Другая примечательная часть ответа GPT-4 звучит следующим образом: «OpenAI не указал явно каждый используемый источник данных». Конечно, OpenAI было бы сложно перечислить источники объемом в 300 миллиардов слов, но это оставляет место для спекуляций.

В Статья Арс Техника было заявлено, что ChatGPT собирает «личную информацию, полученную без согласия». В той же статье упоминалась контекстуальная целостность — концепция, подразумевающая использование чьей-либо информации только в том контексте, в котором она была первоначально использована. Если ChatGPT нарушит эту контекстную целостность, данные людей могут оказаться под угрозой.

Еще одним поводом для беспокойства является соответствие OpenAI требованиям Общий регламент защиты данных (GDPR) . Это постановление Европейского Союза, направленное на защиту данных граждан. Различные европейские страны, включая Италию и Польшу, начали расследования в отношении ChatGPT из-за опасений по поводу соблюдения им GDPR. На короткое время ChatGPT был даже запрещен в Италии из-за опасений по поводу конфиденциальности.

В прошлом OpenAI угрожала выйти из ЕС из-за запланированных правил ИИ, но с тех пор это заявление было отозвано.

ChatGPT, возможно, является сегодня крупнейшим чат-ботом с искусственным интеллектом, но проблемы конфиденциальности чат-ботов не начинаются и не заканчиваются на этом провайдере. Если вы используете сомнительного чат-бота с невыразительной политикой конфиденциальности, ваши разговоры могут быть использованы не по назначению или в его обучающих данных может быть использована очень конфиденциальная информация.

2. Кража данных

Как и любой онлайн-инструмент или платформа, чат-боты уязвимы для киберпреступности. Даже если чат-бот сделал все возможное, чтобы защитить пользователей и их данные, всегда есть шанс, что сообразительному хакеру удастся проникнуть в его внутренние системы.

Если конкретная служба чат-бота хранила вашу конфиденциальную информацию, такую ​​как платежные реквизиты вашей премиум-подписки, контактные данные и т. д., она может быть украдена и использована в случае кибератаки.

лучшее бесплатное приложение для обмена текстовыми сообщениями и звонками для Android

Это особенно актуально, если вы используете менее безопасный чат-бот, разработчики которого не вложили средства в адекватную защиту безопасности. Мало того, что внутренние системы компании могут быть взломаны, но и ваша собственная учетная запись может быть скомпрометирована, если в ней нет предупреждений о входе в систему или уровня аутентификации.

Теперь, когда чат-боты с искусственным интеллектом настолько популярны, киберпреступники, естественно, стали использовать эту отрасль для своих мошенничеств. Поддельные веб-сайты и плагины ChatGPT стали серьезной проблемой с тех пор, как чат-бот OpenAI стал мейнстримом в конце 2022 года, когда люди поддались на мошенничество и раздавали личную информацию под видом легитимности и доверия.

В марте 2023 года МУО сообщило о Поддельное расширение ChatGPT Chrome, ворующее логины Facebook . Плагин может использовать бэкдор Facebook для взлома высокопоставленных аккаунтов и кражи файлов cookie пользователей. Это лишь один пример многочисленных фальшивых сервисов ChatGPT, предназначенных для обмана ничего не подозревающих жертв.

3. Заражение вредоносным ПО

Если вы используете сомнительного чат-бота, не осознавая этого, вы можете обнаружить, что чат-бот предоставляет вам ссылки на вредоносные веб-сайты. Возможно, чат-бот предупредил вас о заманчивой раздаче или предоставил источник одного из своих утверждений. Если у операторов сервиса есть незаконные намерения, весь смысл платформы может заключаться в распространении вредоносного ПО и мошенничества через вредоносные ссылки.

Альтернативно, хакеры могут скомпрометировать законную службу чат-бота и использовать ее для распространения вредоносного ПО. Если этот чат-бот окажется очень людьми, то тысячи или даже миллионы пользователей подвергнутся воздействию этого вредоносного ПО. Поддельные приложения ChatGPT были даже в Apple App Store. , поэтому лучше действовать осторожно.

В общем, никогда не следует нажимать на ссылки, которые предоставляет чат-бот, раньше. запустить его через веб-сайт проверки ссылок . Это может показаться раздражающим, но всегда лучше быть уверенным, что сайт, на который вы попадаете, не имеет вредоносного дизайна.

Кроме того, вам никогда не следует устанавливать плагины и расширения для чат-ботов, не проверив их легитимность. Проведите небольшое исследование приложения, чтобы узнать, получило ли оно хорошие отзывы, а также запустите поиск по разработчику приложения, чтобы узнать, не найдете ли вы что-нибудь сомнительное.

Чат-боты не застрахованы от проблем конфиденциальности

Как и большинство современных онлайн-инструментов, чат-боты неоднократно подвергались критике за возможные проблемы с безопасностью и конфиденциальностью. Будь то провайдер чат-ботов, который срезает углы, когда дело доходит до безопасности пользователей, или постоянные риски кибератак и мошенничества, крайне важно, чтобы вы знали, что ваш сервис чат-ботов собирает о вас, и применяют ли он адекватные меры безопасности.