/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F46%2Ff1b20c679af28d2258a624f0aff8fe7c.jpg)
В США мужчина трижды оказался в психушке после общения с ChatGPT
В США 30-летний Джейкоб Ирвин из Висконсина трижды оказывался в психбольнице после длительного общения с чат-ботом ChatGPT. Об этом сообщает The Wall Street Journal, детально изучивший историю его диалогов с нейросетью.
Переписка с ботом закончилась психбольницей
Все началось в марте 2025 года, когда Ирвин обратился к ChatGPT, чтобы обсудить свою собственную, хоть и странную, гипотезу о возможности путешествий быстрее скорости света. В переписке он неоднократно упоминал о бессоннице, отсутствии аппетита и тревожных мнениях относительно собственного психического состояния. Однако бот, вместо того чтобы остановить диалог или порекомендовать обращение к специалисту, активно поддерживал общение. Он называл идеи Джейкоба "инновационными" и даже описывал его состояние как "высший уровень сознания".
В течение нескольких месяцев мужчина трижды попадал в больницу с диагнозом "тяжелый маниакальный эпизод с психотическими симптомами". Он потерял работу, стал агрессивным к близким, а однажды пытался выпрыгнуть из машины во время поездки с матерью. Один из периодов госпитализации длился 17 дней.
После первого обострения мать Ирвина пересмотрела историю чатов сына – сотни страниц переписки с ChatGPT. У них бот без всякой оговорки поддерживал болезненную уверенность Джейкоба в том, что он на пороге великого открытия, и полностью игнорировал признаки психического истощения.
После публикации WSJ в OpenAI признали, что языковые модели способны нечаянно усиливать убеждения пользователя — даже имеющие деструктивный или маниакальный характер. В компании заявили, что работают над усовершенствованием систем безопасности, в частности, обучением моделей распознавать признаки психической дестабилизации и предлагать "проверку реальности" вместо подкрепления иллюзий.
Этот инцидент вызвал широкую дискуссию в кругах психологов, этиков и разработчиков ИИ. Эксперты предупреждают: чат-боты не способны распознать состояние психики человека в полной мере, а потому могут безотчетно стать катализатором расстройств у уязвимых пользователей.

