5 причин, почему вы не должны доверять ChatGPT для получения медицинской консультации

5 причин, почему вы не должны доверять ChatGPT для получения медицинской консультации
Такие читатели, как вы, помогают поддерживать MUO. Когда вы совершаете покупку по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Читать далее.

ChatGPT — чат-бот с искусственным интеллектом (ИИ), разработанный OpenAI, — стал универсальным инструментом для ответов на множество простых и сложных вопросов, включая запросы на медицинскую консультацию. Он может ответить на медицинские вопросы и успешно сдать экзамен на получение медицинской лицензии в США (USMLE), но не может заменить встречу с врачом в больнице.





СДЕЛАТЬ ВИДЕО ДНЯ ПРОКРУТИТЕ, ЧТОБЫ ПРОДОЛЖИТЬ СОДЕРЖАНИЕ

По мере развития ChatGPT у него есть потенциал полностью преобразовать сектор здравоохранения. При интеграции с системами здравоохранения это может улучшить доступ пациентов к медицинской помощи и повысить эффективность работы врачей. Однако, поскольку он основан на ИИ, существует несколько опасений по поводу его потенциальных опасностей.





я должен скачать 32 или 64 бит

1. ChatGPT имеет ограниченные знания

  Свинья к сердцу

ChatGPT не знает всего. Согласно OpenAI, ChatGPT имеет ограниченные знания, особенно когда речь идет о том, что произошло после сентября 2021 года.





ChatGPT не имеет прямого доступа к поисковым системам или Интернету. Он был обучен с использованием огромного количества текстовых данных из многочисленных источников, включая книги, веб-сайты и другие тексты. Он не «знает» данные, которые он доставляет. Вместо этого ChatGPT использует прочитанный текст, чтобы прогнозировать, какие слова использовать и в каком порядке.

Поэтому он не может получать текущие новости о разработках в области медицины. Да, ChatGPT ничего не знает о пересадке сердца от свиньи к человеку или любых других недавних прорывах в медицинской науке.



2. ChatGPT может предоставлять неверную информацию

ChatGPT может ответить на ваши вопросы, но ответы могут быть неточными или предвзятыми. Согласно Цифровое здоровье PLoS Исследование ChatGPT выполнялось с точностью не менее 50% во всех экзаменах USMLE. И хотя в некоторых аспектах он превысил проходной порог в 60%, вероятность ошибки все еще существует.

Кроме того, не вся информация, используемая для обучения ChatGPT, является достоверной. Ответы, основанные на непроверенной или потенциально предвзятой информации, могут быть неверными или устаревшими. В мире медицины недостоверная информация может стоить даже жизни.





Поскольку ChatGPT не может самостоятельно исследовать или проверять материалы, он не может отличить правду от вымысла. Уважаемые медицинские журналы, в том числе Журнал Американской медицинской ассоциации (JAMA), установили строгие правила, согласно которым только люди могут писать научные исследования, публикуемые в журнале. Как результат, вы должны постоянно проверять ответы ChatGPT .

3. ChatGPT не проверяет вас физически

Медицинские диагнозы зависят не только от симптомов. Врачи могут получить представление о характере и тяжести заболевания посредством медицинского осмотра пациента. Сегодня для диагностики пациентов врачи используют как медицинские технологии, так и пять органов чувств.





ChatGPT не может провести полную виртуальную проверку или даже физический осмотр; он может отвечать только на те симптомы, которые вы предоставляете в виде сообщений. Для безопасности и ухода за пациентом ошибки при физикальном осмотре или полное игнорирование физикального осмотра могут нанести вред. Поскольку ChatGPT не осматривал вас физически, он поставит неверный диагноз.

4. ChatGPT может предоставлять ложную информацию

  ChatGPT Ложный ответ

Недавнее исследование, проведенное Медицинский факультет Университета Мэриленда по совету ChatGPT для скрининга рака молочной железы были получены следующие результаты:

«По нашему опыту мы видели, что ChatGPT иногда выдумывает поддельные журнальные статьи или консорциумы здравоохранения, чтобы поддержать свои заявления». —Пол Йи, доктор медицинских наук, доцент кафедры диагностической радиологии и ядерной медицины в UMSOM

В рамках нашего тестирования ChatGPT мы запросили список научно-популярных книг, посвященных теме подсознания. В результате ChatGPT выпустил поддельную книгу под названием «Сила подсознания» доктора Густава Куна.

Когда мы спросили о книге, она ответила, что это «гипотетическая» книга, которую она создала. ChatGPT не сообщит вам, является ли журнальная статья или книга ложной, если вы не зададите дополнительные вопросы.

5. ChatGPT — всего лишь языковая модель ИИ

  ЧатGPT Medical

Языковые модели функционируют путем запоминания и обобщения текста, а не изучения или изучения состояния пациента. Несмотря на то, что ответы соответствуют человеческим стандартам с точки зрения языка и грамматики, ChatGPT по-прежнему содержит ряд проблем , как и другие боты с искусственным интеллектом.

ChatGPT не заменит вашего врача

Врачи-люди всегда будут нужны, чтобы принять окончательное решение о здравоохранении. ChatGPT обычно советует поговорить с лицензированным врачом, когда вы обращаетесь за медицинской помощью.

Инструменты на основе искусственного интеллекта, такие как ChatGPT, можно использовать для планирования визитов к врачу, помощи пациентам в получении лечения и хранения информации об их здоровье. Но она не может заменить опыт и сочувствие врача.

Netflix перестает играть через несколько минут

Вы не должны полагаться на инструмент на основе ИИ для диагностики или лечения своего здоровья, будь то физического или психического.