/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F3f939b01387f6edf2c1f2341a210e49a.jpg)
Мужчина отравился после совета ChatGPT — что именно он употребил
Отравление из-за совета ИИ / © Unsplash
В США мужчина оказался в больнице с приступом галлюцинаций и отравлением после того, как выполнил совет ChatGPT.
Этот случай описан в журнале American College of Physicians Journals.
Говорят, что самое худшее, что можно сделать, когда чувствуешь себя плохо, — это «загуглить» свои симптомы. Но, как оказалось, обращение за медицинским советом к ChatGPT также может иметь серьезные последствия.
60-летний мужчина убедился в этом на собственном опыте, когда оказался в больнице после отравления, следуя советам ШИ-чатбота.
Это произошло после того, как пользователь обеспокоился количеством соли в своем рационе и ее негативным влиянием на здоровье. Он решил посоветоваться с ChatGPT о полном исключении хлорида натрия.
ШИ-бот предложил заменить его бромидом — веществом, которое в небольших количествах содержится в морской воде и определенных минералах. Ранее бромид использовался в качестве ингредиента в некоторых фармацевтических препаратах, однако впоследствии было установлено, что в больших дозах он токсичен для человека.
Не зная этого, мужчина заказал в Сети бромид натрия (неорганическое бинарное соединение, средняя соль щелочного металла натрия и бромистоводородной кислоты — ред.) и принялся употреблять его вместо соли. Приблизительно через три месяца у него появились сильные галлюцинации, и он попал в больницу.
Раньше у мужчины не было никаких проблем со здоровьем. После лечения жидкостями и электролитами у него выявились другие симптомы — акне и красные ангиомы, что позволило врачам диагностировать бромизм.
Бромизм — это отравление, вызванное чрезмерным влиянием брома. Оно может приводить к судорогам, тремору, спутанности сознания, комы, а также вызвать тревожность, депрессию, психоз, усталость и анорексию.
«Вдохновленный тем, что изучал диетологию в колледже, он решил провести личный эксперимент и исключить хлорид из рациона», — говорится в отчете.
Он заменил поваренную соль бромидом натрия, приобретенный в интернете после консультации с ChatGPT, где прочитал, что хлорид можно заменить бромидом (вероятно, в совсем других целях, например для очистки).
После трех недель в больнице мужчину выписали. Авторы случая предостерегли других не повторять его ошибки и не воспринимать советы ИИ как медицинскую истину.
«Следует учитывать, что ChatGPT и другие системы искусственного интеллекта могут генерировать научные неточности, не способны критически обсуждать результаты и способствовать распространению дезинформации», — говорится в объяснении.
Тем временем компания OpenAI, разработчик ChatGPT, напоминает, что в условиях использования указано: информация «может быть не всегда точной».
«Вы не должны полагаться на результаты наших сервисов как на единственный источник истины или фактической информации или как на замену профессиональной консультации», — сказано там. А также уточняется: «Наши сервисы не предназначены для диагностики или лечения каких-либо состояний здоровья».
Информация, содержащаяся на этом сайте, не предназначена для замены профессиональной медицинской консультации, диагностики или лечения. Всегда обращайтесь за советом к врачу или другому квалифицированному медицинскому работнику с любыми вопросами о состоянии вашего здоровья.
Другой житель Британии 45-летний Ли Редпат, к сожалению, умер после того, как употреблял нелицензированный препарат фенбендазол, ошибочно считая его профилактикой рака. На самом деле это были таблетки от глистов для лошадей.

