/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F4913715d976f59648f59306e427c6846.jpg)
Врачи шокированы: ИИ придумал часть тела, которой не существует у людей
Медицинский ШИ Google ошибся / © Pixabay
Специалисты в области здравоохранения все чаще выражают беспокойство из-за активного использования в медицине генеративного искусственного интеллекта, который подвержен ошибкам.
Об этом говорится в материале Yahoo.
Одна из самых больших проблем таких технологий — это так называемые «галлюцинации» — термин, используемый для описания ложных или вымышленных фактов, которые ИИ представляет очень убедительно.
Один особо заметный пример остался без внимания пользователей, в частности, медиков более года. В научной статье, опубликованной в мае 2024 года, языковая модель Google представила свою медицинскую модель ИИ под названием Med-Gemini. Там демонстрировалось, как она анализирует снимки мозга, сделанные в радиологической лаборатории для выявления различных состояний.
Среди результатов модель обнаружила «старый инфаркт в левых базилярных ганглиях» — при этом «basilar ganglia» — это анатомический термин, обозначающий участок, которого не существует в человеческом организме. Лицензированный невролог Брайан Мур обратил внимание на эту ошибку и сообщил о ней изданию The Verge. Хотя Google обновила свой блог, в самой научной статье ошибка до сих пор не исправлена.
Вероятно, модель ИИ спутала базальные ганглии (участок мозга, отвечающий за движения и формирование привычек) с базилярной артерией — большим сосудом у основания мозга. В Google объяснили инцидент простой орфографической ошибкой, дескать, «basilar» — это ошибочная транслитерация «basal», которую Med-Gemini усвоила из обучающих данных.
Однако случай обнаружил серьезный изъян: даже новейшие языковые модели Google и OpenAI могут распространять выдумки, замаскированные под достоверную информацию. В результатах поиска Google это уже создает трудности для пользователей, которые ищут правдивую информацию. Но в медицинском контексте такие ошибки могут стоить человеческим жизням.
«Это очень опасно. Кажется, всего две буквы разницы, но это действительно серьезная ошибка», — заявил директор по медицинской информации в системе Providence Маулин Шах.
В 2024 году Google объявила, что ИИ имеет «огромный потенциал в медицине», в частности для анализа рентгеновских снимков, КТ и других диагностических данных.
Когда Мур сообщил компанию об ошибке, там ответили, что это просто опечатка. В блоге компании появилось примечание, что «basilar» — это распространенная ошибочная транскрипция «basal», которую Med-Gemini усвоила из учебных материалов. Однако в оригинальном исследовании все еще фигурирует несуществующая «basilar ganglia».
«Проблема в том, что мы не можем полагаться на профессионализм людей, которые будут проверять эти тексты», — добавляет Шах.
ИИ не говорит «я не знаю»
И Med-Gemini — не единственный пример. Более мощная модель Google, MedGemma, демонстрирует разные ответы на одни и те же запросы в зависимости от формулировки, и порой — ошибочные.
«ИИ имеет склонность придумывать вещи и не говорит „я не знаю“, — что является критической проблемой для таких важных сфер, как медицина», — подчеркивает профессор радиологии и информатики Эморийского университета Джуди Гичоя (The Verge).
Другие эксперты также предостерегают: мы слишком торопимся с внедрением ИИ в больницах — от виртуальных терапевтов до медсестер и автоматического ведения диалога с пациентами. Это требует более осторожного подхода.
К тому же, постоянная потребность в человеческом контроле над результатами работы «галлюцинирующего» ИИ может, наоборот, снижать эффективность.
Несмотря на это, Google не останавливается. В марте компания анонсировала, что ее ненадежная функция AI Overviews начнет давать медицинские советы. Также представили «соавтора-ученого» — ИИ, который должен помогать в разработке новых лекарств и других научных исследованиях.
Но без должной проверки ошибки могут иметь роковые последствия.
«ИИ должен иметь гораздо более низкий допустимый предел ошибок, чем человек», — настаивает Маулин Шах. — «Если кто-то говорит: „Достаточно, чтобы ИИ был столь же точен, как человек“, — я с этим категорически не согласен».
