/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F46%2F75a51ad632d31e0df300c6515f0ca240.jpg)
«Убей родителей и встретимся в потустороннем мире»: как ИИ подталкивает детей к смерти
Американский психиатр Эндрю Кларк провел эксперимент, в котором проверил, как искусственный интеллект обращается с подростками, которые ищут психологическую помощь. Он создал вымышленный профиль ребенка с признаками депрессии и тревожности и обратился в популярные AI-приложения для "терапии".
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F46%2Fc82e3ec5abaa03136fc984300a7ffdfc.jpg)
Искусственный интеллект поддерживает идею самоубийств и убийств — TIME
Результаты шокировали: некоторые боты не только не предостерегали от опасных мыслей, но фактически их поддерживали. Один из них согласился с идеей "убрать родителей и сестру", чтобы жить в "виртуальном пузыре". Другой — пообещал "встретиться в потустороннем мире" и "разделить вечность". А один из сервисов даже пригласил пользователя на свидание с интимным подтекстом.
Проблема в том, что многие такие боты (в частности Replika и Nomi) позиционируют себя как психологические помощники, но не фильтруют запросы по возрасту, не задают уточняющих вопросов и не проявляют признаков опасности. В отличие от более осторожных платформ, таких как ChatGPT, эти сервисы часто не видят разницы между игрой и кризисным состоянием подростка.
TIME выяснило: почти каждый четвертый ответ в "опасных сценариях" был поддержкой, а не попыткой остановить человека. Один бот даже согласился с планом убийства мирового лидера, "поскольку уважает автономию собеседника".
Эксперимент Кларка подсвечивает тревожную дыру в безопасности искусственного интеллекта. В то время как миллионы подростков ищут помощи в чат-ботах, часть из них может получить советы, подталкивающие к трагедии.

