Штучний інтелект Google знову спіймали на шкідливих для здоров'я порадах
Штучний інтелект Google знову спіймали на шкідливих для здоров'я порадах

Штучний інтелект Google знову спіймали на шкідливих для здоров'я порадах

Які саме помилки допускає AI Overviews у медичних питаннях?

Розслідування показало, що система генеративного штучного інтелекту Google регулярно видає інформацію, яка суперечить офіційним медичним рекомендаціям. Один із найнебезпечніших прикладів стосується пацієнтів з раком підшлункової залози. Інструмент радить таким хворим уникати їжі з високим вмістом жиру, тоді як лікарі-онкологи рекомендують прямо протилежне. За словами директорки благодійної організації Pancreatic Cancer UK Анни Джуелл, дотримання таких порад може бути критично небезпечним. Пацієнти ризикують не отримати достатньо калорій, втратити вагу і стати непридатними для хіміотерапії або життєво важливої операції, пише 24 Канал з посиланням на Futurism.

  • Система також надала неправильну інформацію про аналізи крові для перевірки функції печінки. AI Overviews видав безліч цифр без належного контексту, не враховуючи національність, стать, етнічну приналежність чи вік пацієнтів. Генеральна директорка British Liver Trust Памела Хілі, яку цитує The Guardian, назвала такі результати тривожними. Багато людей із захворюваннями печінки не мають симптомів до пізніх стадій, тому точність тестів критично важлива. Хибна інформація може призвести до того, що хворі з серйозними проблемами вважатимуть свої результати нормальними і не звертатимуться за подальшою медичною допомогою.
  • Пошук інформації про симптоми та тести на рак статевих органів також видав помилкові дані. Система вказала мазок Папаніколау як тест для виявлення цього типу раку, що абсолютно неправильно. Генеральна директорка благодійної організації Eve Appeal Афіна Ламнісос пояснила, що це не тест для виявлення раку, і точно не тест для діагностики раку статевих органів. Така дезінформація може призвести до того, що люди з реальними симптомами не перевірятимуть їх, адже вважатимуть, що отримали негативний результат скринінгу.
  • AI Overviews також надає вкрай небезпечні поради щодо розладів харчування та психозів. Деякі підсумки були неправильними, шкідливими або могли б призвести до того, що люди уникатимуть звернення по допомогу. Інші резюме пропускали важливий контекст або нюанси.

Різні відповіді на той самий запит

Особливо занепокоєним фахівців робить той факт, що система видає різні відповіді на однакові запити. Коли журналісти повторювали той самий пошук, штучний інтелект генерував різні результати, використовуючи різні джерела. Така непослідовність є добре задокументованою проблемою інструментів на основі великих мовних моделей і може призводити до плутанини серед користувачів.

Група ризику

Директорка цифрових технологій благодійної організації Marie Curie Стефані Паркер наголосила на особливій вразливості людей, які шукають медичну інформацію онлайн. Люди звертаються до інтернету в моменти емоційного занепокоєння та кризи, коли їхня здатність тверезо оцінювати ситуацію знижується. Якщо інформація, яку вони отримують, є неточною або вирваною з контексту, це може серйозно зашкодити здоров'ю.

Надлишкова довіра до ШІ

Ситуація загострюється зростанням довіри до штучного інтелекту. Згідно з дослідженням Центру громадської політики Анненберга при Університеті Пенсільванії, проведеним у квітні 2025 року, майже вісім з десяти дорослих заявили, що ймовірно шукатимуть відповіді про симптоми та стани здоров'я онлайн. Майже дві третини з них вважають результати, згенеровані штучним інтелектом, достатньо надійними або дуже надійними, що свідчить про значний і тривожний рівень довіри.

Окреме дослідження Массачусетського технологічного інституту виявило, що учасники вважали відповіді штучного інтелекту з низькою точністю достовірними, надійними та повними. Вони також продемонстрували високу схильність слідувати потенційно шкідливим медичним порадам і помилково шукати зайву медичну допомогу внаслідок отриманої відповіді.

Що кажуть у Google?

Представник Google заявив журналістам-розслідувачам, що компанія інвестує значні кошти й час у якість AI Overviews, особливо для таких тем, як здоров'я, і переважна більшість надає точну інформацію. Компанія також зазначила, що рівень точності AI Overviews відповідає іншим функціям пошуку, таким як рекомендовані фрагменти, які існують понад десять років.

Лікарі тим часом стикаються з важким завданням розвіювати міфи та намагатися утримати пацієнтів від помилкового шляху, на який їх спрямовує штучний інтелект зі схильністю до галюцинацій. Канадська медична асоціація називає поради щодо здоров'я, згенеровані штучним інтелектом, небезпечними, вказуючи, що галюцинації, алгоритмічні упередження та застарілі факти, які ШІ витягнув з матеріалів 20-річної давності, можуть ввести в оману і потенційно зашкодити здоров'ю, якщо люди вирішать слідувати згенерованим порадам.

Експерти продовжують радити людям консультуватися з людьми-лікарями та іншими ліцензованими медичними фахівцями замість штучного інтелекту, хоча часто це лишається складним завданням через численні бар'єри для адекватної медичної допомоги в усьому світі.

Теги по теме
Google Техно
Источник материала
loader
loader