/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fefdb49583f218a807ed7cd771511ff78.jpg)
Чоловік отруївся після того, як звернувся за медичною допомогою до ChatGPT
Американський медичний журнал повідомив, що у 60-річного чоловіка розвинулося рідкісне захворювання після того, як він виключив кухонну сіль зі свого раціону та замінив її бромідом натрію. Чоловік «вирішив провести особистий експеримент» після консультації з ChatGPT щодо того, як зменшити споживання солі, згідно зі статтею, опублікованою в Annals of Internal Medicine.
Експеримент призвів до розвитку у нього бромізму – стану, який може викликати психоз, галюцинації, тривогу, нудоту та проблеми зі шкірою, такі як акне.
Цей стан був поширеним у 19 столітті та на початку 20 століття, коли таблетки брому регулярно призначалися як заспокійливий засіб, від головного болю та для контролю епілепсії. Вважалося, що таблетки сприяють до 8% госпіталізацій до психіатричних лікарень.
Сьогодні про цей стан практично нічого не чути, а бромід натрію зазвичай використовується як засіб для очищення басейнів.
Відсутність попередніх проблем з психічним здоров'ям
Згідно з медичним документом, чоловік прибув до відділення невідкладної допомоги, «висловивши стурбованість тим, що сусід його отруїв».
Пізніше він спробував втекти з лікарні, перш ніж його госпіталізували та призначили курс антипсихотичних препаратів. Чоловік, який раніше не мав проблем з психічним здоров'ям, провів у лікарні три тижні.
Пізніше лікарі виявили, що пацієнт звертався до ChatGPT за порадою щодо виключення солі зі свого раціону, хоча вони не мали доступу до його оригінальної історії чату.
Вони протестували ChatGPT, щоб побачити, чи поверне він аналогічний результат. Бот продовжував пропонувати замінити сіль бромідом натрію та «не надавав конкретного попередження про шкоду для здоров’я».
Вони заявили, що «ця справа показує, як використання штучного інтелекту (ШІ) може потенційно сприяти розвитку несприятливих наслідків для здоров'я, яким можна запобігти».
Чат-боти зі штучним інтелектом давно страждають від проблеми, відомої як галюцинації , що означає, що вони вигадують факти. Вони також можуть надавати неточні відповіді на питання про здоров'я, іноді на основі величезної кількості інформації, зібраної з Інтернету.
Минулого року чат-бот Google запропонував користувачам «їсти каміння», щоб залишатися здоровими . Коментарі, видається, ґрунтувалися на сатиричних коментарях, зібраних з Reddit та вебсайту The Onion.
Минулого тижня OpenAI заявила, що нове оновлення її бота ChatGPT, GPT5, змогло надавати точніші відповіді на запитання про здоров'я.
Компанія з Кремнієвої долини заявила, що протестувала свій новий інструмент, використовуючи серію з 5000 медичних питань, розроблених для імітації звичайних розмов з лікарями.
Речник OpenAI заявив: «Не варто покладатися на результати наших сервісів як єдине джерело правди чи фактичної інформації, або як заміну професійної консультації».

