Мужчина отравился после совета ChatGPT — что именно он употребил
Мужчина отравился после совета ChatGPT — что именно он употребил

Мужчина отравился после совета ChatGPT — что именно он употребил

Отравление из-за совета ИИ / © Unsplash

В США мужчина оказался в больнице с приступом галлюцинаций и отравлением после того, как выполнил совет ChatGPT.

Этот случай описан в журнале American College of Physicians Journals.

Говорят, что самое худшее, что можно сделать, когда чувствуешь себя плохо, — это «загуглить» свои симптомы. Но, как оказалось, обращение за медицинским советом к ChatGPT также может иметь серьезные последствия.

60-летний мужчина убедился в этом на собственном опыте, когда оказался в больнице после отравления, следуя советам ШИ-чатбота.

Это произошло после того, как пользователь обеспокоился количеством соли в своем рационе и ее негативным влиянием на здоровье. Он решил посоветоваться с ChatGPT о полном исключении хлорида натрия.

ШИ-бот предложил заменить его бромидом — веществом, которое в небольших количествах содержится в морской воде и определенных минералах. Ранее бромид использовался в качестве ингредиента в некоторых фармацевтических препаратах, однако впоследствии было установлено, что в больших дозах он токсичен для человека.

Не зная этого, мужчина заказал в Сети бромид натрия (неорганическое бинарное соединение, средняя соль щелочного металла натрия и бромистоводородной кислоты — ред.) и принялся употреблять его вместо соли. Приблизительно через три месяца у него появились сильные галлюцинации, и он попал в больницу.

Раньше у мужчины не было никаких проблем со здоровьем. После лечения жидкостями и электролитами у него выявились другие симптомы — акне и красные ангиомы, что позволило врачам диагностировать бромизм.

Бромизм — это отравление, вызванное чрезмерным влиянием брома. Оно может приводить к судорогам, тремору, спутанности сознания, комы, а также вызвать тревожность, депрессию, психоз, усталость и анорексию.

«Вдохновленный тем, что изучал диетологию в колледже, он решил провести личный эксперимент и исключить хлорид из рациона», — говорится в отчете.

Он заменил поваренную соль бромидом натрия, приобретенный в интернете после консультации с ChatGPT, где прочитал, что хлорид можно заменить бромидом (вероятно, в совсем других целях, например для очистки).

После трех недель в больнице мужчину выписали. Авторы случая предостерегли других не повторять его ошибки и не воспринимать советы ИИ как медицинскую истину.

«Следует учитывать, что ChatGPT и другие системы искусственного интеллекта могут генерировать научные неточности, не способны критически обсуждать результаты и способствовать распространению дезинформации», — говорится в объяснении.

Тем временем компания OpenAI, разработчик ChatGPT, напоминает, что в условиях использования указано: информация «может быть не всегда точной».

«Вы не должны полагаться на результаты наших сервисов как на единственный источник истины или фактической информации или как на замену профессиональной консультации», — сказано там. А также уточняется: «Наши сервисы не предназначены для диагностики или лечения каких-либо состояний здоровья».

Информация, содержащаяся на этом сайте, не предназначена для замены профессиональной медицинской консультации, диагностики или лечения. Всегда обращайтесь за советом к врачу или другому квалифицированному медицинскому работнику с любыми вопросами о состоянии вашего здоровья.

Другой житель Британии 45-летний Ли Редпат, к сожалению, умер после того, как употреблял нелицензированный препарат фенбендазол, ошибочно считая его профилактикой рака. На самом деле это были таблетки от глистов для лошадей.

Источник материала
loader
loader