7 причин против использования генеративного ИИ в приложениях для обмена сообщениями

7 причин против использования генеративного ИИ в приложениях для обмена сообщениями
Такие читатели, как вы, помогают поддерживать MUO. Когда вы совершаете покупку по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Читать далее.

В области искусственного интеллекта прогресс достигается на беспрецедентном уровне, и почти каждую неделю появляются новые разработки. Инструменты генеративного ИИ, такие как ChatGPT, сейчас настолько популярны, что их интегрируют повсюду.





Но должны ли мы? Использование технологии ИИ для повышения производительности, образования и развлечений имеет смысл. Однако сейчас компании думают о том, чтобы поместить его прямо в наши приложения для обмена сообщениями, и это может оказаться разрушительным. Вот семь причин почему.





СДЕЛАТЬ ВИДЕО ДНЯ ПРОКРУТИТЕ, ЧТОБЫ ПРОДОЛЖИТЬ СОДЕРЖАНИЕ

1. Чат-боты с искусственным интеллектом склонны к галлюцинациям

Если вы использовали ChatGPT, Bing или Bard , вы знаете, что генеративные чат-боты склонны к «галлюцинациям». Галлюцинация ИИ — это когда эти чат-боты выдумывают из-за отсутствия адекватных обучающих данных по запросу, запрошенному пользователем.





Другими словами, они распространяют дезинформацию, но звучат уверенно, как будто это факт. Это большая проблема, потому что многие люди не проверяют факты при использовании чат-бота и считают, что он точен по умолчанию. Это один из самых больших ошибки, которых следует избегать при использовании инструментов ИИ .

При размещении в приложениях для обмена сообщениями количество вреда, которое он может нанести, еще больше, поскольку люди могут использовать его для (преднамеренного или непреднамеренного) распространения дезинформации среди своих контактов и в социальных сетях, распространения пропаганды и создания эхо-камер.



2. Людям не нравится разговаривать с ботами

  Маленький оранжевый и серебристый робот сидит на ковровом полу с ноутбуком перед ним.
Изображение предоставлено: Graphicsstudio/ Vecteezy

Подумайте, как это раздражает, когда вы пытаетесь связаться со службой поддержки компании, и вас заставляют разговаривать с чат-ботом, а не с реальным руководителем-человеком, который действительно может понять нюансы вашей проблемы и предложить соответствующие рекомендации.

То же самое относится и к личным беседам. Представьте, что вы разговариваете со своим другом, и на полпути вы понимаете, что он все это время использовал ИИ для ответа на ваши сообщения, а не делал это самостоятельно, основываясь на своих мыслях и мнениях.





Если вы похожи на большинство людей, вы сразу же обидитесь и воспримете использование ИИ в приватной беседе как бесчувственное, жуткое и даже пассивно-агрессивное, как будто другой человек не считает вас достойным своего времени, внимания и сочувствие.

Например, использование ИИ для написания электронных писем понятно, поскольку это профессиональное взаимодействие, но никто не захочет поощрять его использование в личных беседах. Как только новизна технологии исчезнет, ​​использовать ее в этом контексте станет грубо.





3. ИИ не может скопировать ваш уникальный тон

Инструменты генеративного ИИ уже сегодня позволяют вам изменять тональность вашего сообщения, например, формальную, веселую или нейтральную, в зависимости от того, кому вы пишете и как вы хотите произвести впечатление. Magic Compose в сообщениях Google , например, позволяет сделать то же самое.

Хотя это хорошо, обратите внимание, что эти тональности обучаются на основе заданных данных обучения, а не вашей личной истории чата, поэтому он не может воспроизвести вашу уникальную тональность или смайлики, которые вы обычно используете.

Вас это может не сильно волновать, особенно если вы используете ИИ для написания простых рабочих электронных писем, для которых все более или менее используют одинаковую формальную тональность. Но это имеет гораздо большее значение, чем вы можете себе представить, используя его для общения с друзьями и семьей в приложении для обмена сообщениями.

До тех пор, пока инструменты ИИ не позволят вам обучать их языковую модель на основе вашей истории чата, они не смогут воспроизвести ваш уникальный диалект и эксцентричность. Тем не менее, эту проблему не так уж сложно решить, поэтому мы можем увидеть, как она будет реализована в ближайшее время.

4. Написание хороших подсказок требует времени

  Человек пишет на мобильном телефоне

Получение желаемых результатов от чат-бота с искусственным интеллектом во многом зависит от качества вашей подсказки. Если вы напишете плохую подсказку, вы получите плохой ответ, и вам придется уточнять подсказку, пока вы не получите удовлетворительный результат.

Этот процесс имеет смысл, когда вы хотите написать подробный контент, но крайне неэффективен при написании нескольких коротких ответов в неформальной беседе.

Время, которое может потребоваться для уточнения ваших подсказок и получения полезных ответов, в большинстве случаев будет больше, чем время, которое потребовалось бы вам, если бы вы просто писали сообщения самостоятельно.

5. ИИ может привести к наступательным результатам

Помимо точности, предвзятость является одним из самые большие проблемы с генеративным ИИ . Некоторые люди считают ИИ беспристрастным, поскольку у него нет собственных мотивов. Однако люди, стоящие за этими инструментами ИИ, в конечном счете, люди со своими предубеждениями.

Другими словами, предвзятость встроена в систему. ИИ по своей сути не понимает, что считается оскорбительным, а что нет, поэтому его можно, например, научить предвзято относиться к определенным группам людей или определенным культурам, что приведет к оскорбительным результатам в процессе.

6. ИИ может не понимать сарказма или юмора

Понимание ИИ фигур речи, таких как ирония и метафора, со временем улучшается, но все еще далеко от того, чтобы его можно было использовать в разговоре для распознавания юмора. Например, когда мы попросили Барда Google быть саркастичным, результаты были случайными.

  Чат-бот Google Bard пытается быть саркастичным

В некоторых случаях это было действительно смешно и подыгрывало моему сарказму. Но в других случаях он либо по умолчанию возвращался к несмешному шаблонному ответу, либо просто вообще отказывался участвовать в разговоре, говоря, что, поскольку это всего лишь LLM, он не может помочь мне с моим запросом.

7. Использование ИИ может привести к плохой коммуникации

Еще одна тонкая, но существенная проблема с интеграцией генеративного ИИ в приложения для обмена сообщениями заключается в том, как он может повлиять на нашу способность общаться. Если мы будем все больше полагаться на ИИ для общения друг с другом, это может помешать нашей способности тренируем наш эмоциональный интеллект и социальные навыки.

Дело в том, что чем больше мы передаем наши социальные нужды на аутсорсинг ИИ, тем хуже мы становимся в передаче идей через органические средства. Другими словами, чем больше вы используете ИИ для общения со своими контактами, тем больше вероятность того, что вы ухудшите качество своих отношений.

смотреть YouTube одновременно

Не все должно иметь ИИ

Часто с появлением новых технологий мы настолько заняты выяснением того, как их использовать, что не можем поспорить, должны ли мы их использовать в первую очередь.

Хотя использование генеративного ИИ для написания электронных писем, мозгового штурма или создания изображений для презентаций имеет смысл, его интеграция в приложения для обмена сообщениями вызывает много критики.