/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Fe605b0e944fa854440a130fc93f68e24.jpg)
Мужчина попал в больницу с психозом из-за советов ChatGPT: что ему рекомендовал ИИ
ЧатГПТ
Мужчина следовал диетическим советам ChatGPTи попал в психоз, это был первый задокументированный случай отравления из-за ИИ.
Об этом пишет издание Gizmodo.
Врачи из Университета Вашингтона опубликовали в этом месяце в журнале Annals of Internal Medicine: Clinical Cases уникальный случай, который стал предупреждением для современного мира. Мужчина, следуя рекомендациям искусственного интеллекта ChatGPT по диете, в течение трех месяцев употреблял натрия бромид, что в итоге привело к отравлению и развитию психоза. К счастью, после лечения пациент выздоровел.
История начинается с того, что мужчина обратился в местную больницу с подозрением на отравление, которое, по его словам, мог вызвать сосед. В медучреждении у него обнаружили симптомы возбуждения и паранойи, он отказывался пить воду даже несмотря на жажду, видел и слышал галлюцинации, а затем у него развился полноценный психотический эпизод. Из-за этого его поместили на принудительную психиатрическую изоляцию.
Врачи быстро начали терапию внутривенными растворами и антипсихотическими препаратами, благодаря чему состояние пациента стабилизировалось. После того как мужчина смог четко объяснить ситуацию, выяснилось, что причина — бромизм, отравление бромидом.
Мужчина рассказал, что три месяца назад он начал сознательно употреблять натрия бромид, узнав о негативном влиянии избытка поваренной соли (натрия хлорида) на здоровье. Поиски информации заставили его искать способ уменьшить потребление хлорида.
«Вдохновленный знаниями по питанию, которые получил во время учебы в университете», — отметили врачи, — мужчина решил исключить из рациона хлорид и обратился к ChatGPT за советом. Искусственный интеллект якобы посоветовал заменить хлорид на бромид, что якобы было безопасно. Получив эту рекомендацию, мужчина начал покупать и употреблять натрия бромид, приобретенный в интернете.
По хронологии событий можно предположить, что мужчина пользовался версиями ChatGPT 3.5 или 4.0. Врачи не имели доступа к истории чата пациента, поэтому точный диалог неизвестен. Однако, протестировав сами ChatGPT 3.5, они получили ответ, что бромид может быть заменой для хлорида.
Важно отметить, что в типичном контексте замена бромида на хлорид касалась не питания, а, например, очистки или других бытовых сфер. ChatGPT подчеркивал, что контекст важен, но не предупредил об опасности потребления бромида и не спросил, зачем пользователь интересуется этим вопросом.
К счастью, после длительного лечения мужчина постепенно выздоровел, его сняли с антипсихотических препаратов и выписали из больницы через три недели. Через две недели после выписки он оставался в стабильном состоянии.
Врачи подчеркивают, что хотя ИИ, как ChatGPT, может стать полезным мостом между учеными и широкой аудиторией, существует риск распространения неполной или дезориентированной информации. Предостережения относительно замены хлорида на бромид вряд ли дали бы живые медицинские эксперты, особенно учитывая известную токсичность бромида.
Медики отмечают, что этот случай демонстрирует важность критического отношения к советам, полученным от искусственного интеллекта, и напоминает, что консультации с профессионалами остаются незаменимыми.

