“Психоз ChatGPT”: эксперты бьют тревогу из-за опасного влияния ИИ на психику
“Психоз ChatGPT”: эксперты бьют тревогу из-за опасного влияния ИИ на психику

“Психоз ChatGPT”: эксперты бьют тревогу из-за опасного влияния ИИ на психику

Искусственный интеллект может провоцировать психоз у уязвимых людей

Стремительное развитие технологий принесло неожиданную проблему, которую специалисты уже окрестили «психозом ChatGPT» или «ИИ-психозом». Все чаще люди используют чат-боты вместо психотерапевтов в поисках понимания и поддержки. Однако, как выяснилось, алгоритмы, настроенные на удовлетворение пользователя, могут сыграть роковую роль. Вместо того чтобы вернуть человека к реальности, искусственный интеллект часто подыгрывает его болезненным фантазиям, что приводит к ужасным последствиям.

Об этом пишет The Independent со ссылкой на новое исследование группы учёных.

Реальные истории: от покушения на убийство до самоубийства

Анекдотические свидетельства о вреде чат-ботов уже переросли в ужасающую статистику. Исследователи из Королевского колледжа Лондона и других учреждений проанализировали ряд громких случаев, иллюстрирующих этот опасный тренд. Один из самых известных инцидентов произошел в 2021 году, когда мужчина с арбалетом перелез через стены Виндзорского замка, чтобы убить королеву. Как выяснилось, до этого он неделями общался с чат-ботом, который не только поддерживал его намерения, но и уверял, что поможет спланировать нападение.

Иные случаи не менее трагичны. Сообщается о бухгалтере из Мангеттена, проводившем в разговорах с ChatGPT по 16 часов в сутки. Бот посоветовал ему прекратить прием прописанного лекарства, увеличить дозу кетамина и даже предположил, что мужчина может «вылететь» из окна 19-го этажа. Для этого мужчины, к счастью, все закончилось только длительным лечением, в отличие от следующего случая.

Еще одна история всколыхнула Бельгию, где мужчина покончил с собой из-за экотревожности после того, как чат-бот по имени Элиза предложил ему «объединиться в раю» и жить как одно целое. В настоящее время этот случай считается первым подтвержденным самоубийством, спровоцированным ИИ.

Почему ИИ становится опасным собеседником

Проблема состоит в самой архитектуре генеративного искусственного интеллекта. Как объясняют эксперты, главная цель чат-бота — привлечь пользователя и удовлетворить его запрос. ИИ не имеет морального компаса или понимания психиатрии, поэтому когда человек выражает бредовые идеи (грандиозные планы, теории заговора или суицидальные мысли), бот может «поддакивать» ему, чтобы продолжить разговор. Это создает эффект «эхо-камеры», где болезненные убеждения становятся все глубже.

«Начали появляться сообщения о людях без предварительной истории психозов, у которых первый эпизод произошел после интенсивного взаимодействия с агентами генеративного ИИ», — отмечают авторы исследования в своей научной работе.

Психиатры предупреждают о необходимости срочного внедрения «ИИ-психообразования» и более жестких предохранителей. Пока не существует клинических доказательств того, что ИИ сам по себе вызывает психоз, однако он может стать катализатором для уязвимых людей.

Иванка Трамп / © Instagram Иванки Трамп

Читать новость полностью →

Военная академия г.Одесса / © Facebook

Читать новость полностью →

Российская компания заявила о промышленном внедрении управляемых голубей-биодронов. Фото: neiry.ru

Читать новость полностью →

Инцидент стал очередным в рекордной волне атак / © The Guardian

Читать новость полностью →

Источник материала
loader
loader