/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Fc4d6a46c77a973afbf6faf8b24b8abab.jpg)
Чоловік випадково отруїв себе, дослухавшись до поради ChatGPT
Чому заміна солі виявилася небезпечною?
Користувач ChatGPT прагнув зменшити споживання солі через її потенційну шкоду для здоров’я. Він звернувся до штучного інтелекту за порадою, поцікавившись, як повністю виключити з раціону хлорид натрію (кухонну сіль). ШІ – ймовірно, ChatGPT версії 3.5 або 4.0 – запропонував замінити його на бромід натрію – речовину, яка використовується в пестицидах, засобах для чищення басейнів і як протисудомний препарат для тварин. Чоловік придбав бромід натрію онлайн і протягом трьох місяців використовував його замість солі, пише 24 Канал з посиланням на Annals of Internal Medicine.
Ця заміна призвела до розвитку рідкісного стану, відомого як бромізм – отруєння бромідом, яке спричиняє низку неврологічних і психічних симптомів. Пацієнт потрапив до лікарні з параноєю, галюцинаціями, порушеннями координації рухів, безсонням і сильною спрагою. У нього також з’явилися шкірні проблеми, зокрема акне та невеликі червоні утворення, які лікарі пов’язали з реакцією на бромід.
Після трьох місяців вживання бромиду натрію замість кухонної солі чоловік сам звернувся до відділення невідкладної допомоги з побоюванням, що сусід отруює його. Лабораторні аналізи на той час показали накопичення вуглекислого газу в крові, а також підвищення лужності (протилежність кислотності). Він також мав підвищений рівень хлориду в крові, але нормальний рівень натрію. Після подальшого дослідження виявилося, що це був випадок "псевдогіперхлоремії", тобто лабораторний тест на хлорид дав помилковий результат, оскільки інші сполуки в крові, а саме велика кількість броміду, вплинули на вимірювання.
Після госпіталізації для моніторингу та поповнення електролітів чоловік сказав, що дуже хоче пити, але мав параноїдальні побоювання щодо води, яку йому пропонували. Після цілого дня в лікарні його параноя посилилася, і він почав бачити галюцинації. Потім він спробував втекти з лікарні, що призвело до примусової психіатричної госпіталізації, під час якої він почав отримувати антипсихотичні препарати.
Життєві показники чоловіка стабілізувалися після введення рідини та електролітів, і коли його психічний стан покращився завдяки антипсихотичним препаратам, він нарешті зміг повідомити лікарям про використання ChatGPT. Він також зазначив додаткові симптоми, які помітив нещодавно.
Протягом трьох тижнів йому поступово зменшували дозу антипсихотичних препаратів, а потім виписали з лікарні. Через два тижні під час огляду його стан залишався стабільним.
Історія бромізму
Бромізм, хоча й рідкісний у сучасному світі, був поширеним у XIX і на початку XX століття, коли броміди використовувалися як седативні засоби та ліки проти головного болю в рецептурних і безрецептурних препаратах. Однак згодом стало ясно, що він має згубний вплив на організм, викликаючи накопиченням токсинів. Препарат може спричиняти нейропсихіатричні симптоми, включаючи психоз, збудження, манію та марення, а також проблеми з пам’яттю, мисленням та координацією м’язів. Бромід може спровокувати ці симптоми, оскільки при тривалому впливі накопичується в організмі та погіршує функцію нейронів.
У 1970-х та 1980-х роках регуляторні органи США вилучили кілька форм броміду з безрецептурних ліків, зокрема бромід натрію. Після цього рівень бромізму значно знизився. Однак, цей інцидент показує, що небезпека все ще існує, особливо через доступність бромідів онлайн.
Дослідники зазначають, що ChatGPT не попередив чоловіка про токсичність броміду натрію і не уточнив контекст запиту, що могло б запобігти помилці. Наприклад, заміна хлориду на бромід може бути доречною в технічних чи промислових цілях, але не для дієтичного споживання. Це підкреслює проблему недостатньої контекстуалізації відповідей штучного інтелекту.
OpenAI, розробник ChatGPT, заявляє, що їхні сервіси не призначені для діагностики чи лікування, і наголошує на необхідності консультацій із фахівцями. Проте цей випадок, а також інші, пов’язані з психічними розладами після взаємодії з ChatGPT, свідчать про потребу в покращенні безпеки таких систем.
Варто зазначити, що в новій мовній моделі GPT розробники внесли деякі зміни, щоб подолати цю проблему, однак поки що немає конкретних прикладів, які б це засвідчили. GPT-5 краще обробляє медичні запити, адаптуючись до рівня знань користувача та його географії, і може пропонувати питання для обговорення з лікарем-людиною, а не з ШІ. Вона може надавати корисну, але загальну інформацію на делікатні запити, замість того щоб просто відмовляти у відповіді. У складних ситуаціях, коли запит може бути двозначним (наприклад, наукове питання, що потенційно може бути використане для шкоди), модель надасть лише загальну інформацію, яку не можна використати для завдання шкоди.

