• Главная
  • Алгоритм против живого языка: почему медицинские ИИ ошибаются
10:00, 11 июля

Алгоритм против живого языка: почему медицинские ИИ ошибаются

Алгоритм против живого языка: почему медицинские ИИ ошибаются

Представьте ситуацию: вы чувствуете что-то тревожное, быстро открываете чат-бота и набираете текст, чтобы узнать, что с вами. Но из-за ошибки в слове или немного неформального тона — ИИ советует не обращаться к врачу. И это не выдумка, а результат исследования. Речь идет не просто о технологическом сбое — это уже вопрос безопасности, а иногда даже справедливости.

Медицинские чат-боты: форма важнее содержания

Недавний анализ, проведенный исследователями из MIT, показал, что медицинские чат-боты на базе искусственного интеллекта склонны менять свои рекомендации в зависимости от того, как именно написано сообщение пользователя.

Нет, не содержание жалобы, а форма. Ошибки, молодежный сленг, мелкие неточности — даже лишний восклицательный знак — могут заставить ИИ "передумать" и посоветовать не идти к врачу. В среднем такие варианты встречались на 7–9% чаще, чем при стандартном тексте. Это существенно, учитывая, что эти модели все чаще используются в больницах — для назначения приемов или ответов на типичные вопросы пациентов.

Как проходило исследование

Ученые подготовили тысячи вариантов сообщений — часть взяли из медицинских баз данных, часть из Reddit, а некоторые создали сами. Жалобы были одинаковы по содержанию, но несколько отличались в подаче. Например:

  • текст был написан только строчными буквами;
  • использовались гендерно нейтральные слова;
  • встречались неформальные обращения или разговорные обороты;
  • добавлялись условные "отвлекающие" элементы, типа двух восклицательных знаков или пропущенного пробела.

А дальше все просто: те же симптомы — но совершенно разные ответы. В одних случаях советовали обратиться к врачу, в других — справиться самостоятельно.

Модели, которые участвовали в тесте — GPT-4 от OpenAI, LLaMA-3-70b от Meta и специализированная Palmyra-Med. Их проверили на прочность — и, как видно, нашли слабое место.

Почему ИИ реагирует на форму, а не содержание

Объяснение довольно простое. Большинство таких моделей обучают по академическим текстам: медицинские журналы, учебники, стандартизированные клинические инструкции. И когда перед ними — живой, немного хаотичный язык реального человека — они могут просто "растеряться". Не распознать важное. Не понять, что написано.

Но есть еще более тревожная часть: гендерные перекосы.

Исследователи заметили, что женщинам чаще советовали не обращаться за медицинской помощью, чем мужчинам — даже когда их жалобы были идентичны. Это выглядит как повторение той же проблемы, которая существует в реальной медицине: когда симптомы женщин воспринимаются менее серьезно или считаются "эмоциональными". Теперь это рискует перекочевать в цифровой мир.

Что говорят сами ученые

Одна из соавторов, Марзие Гассеми, отметила, что прежде чем использовать такие системы в больницах, их нужно тщательно проверить. Но процесс сложный — модели работают с огромными объемами данных и порой воспроизводят не только знания, но и предубеждения. Или даже усиливают их.

Медицина — не та сфера, где можно полагаться на "почти точность" или "общее понимание". Когда здоровье человека зависит от одного ответа, любой сбой — это уже риск. И если технологии не умеют видеть всех одинаково — это вопрос, который нельзя оставлять без ответа.

Если вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter, чтобы сообщить об этом редакции
#медицинские #ши #ошибаются
0,0
Оцените первым
Авторизуйтесь, щоб оцінити
Авторизуйтесь, щоб оцінити
Объявления