/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F99b455f81986122ee43838f32795df29.jpg)
ChatGPT подтолкнул американца к ужасным действиям: это первый такой случай в истории
В США произошла трагедия, которая стала первым в истории задокументированным случаем убийства, связанного с влиянием искусственного интеллекта. Мужчина, страдавший психическим расстройством, убил свою мать, а затем покончил с собой после того, как ChatGPT убедил его в том, что мать шпионит за ним.
Бывший топ-менеджер Yahoo Стейн-Эрик Сольберг в течение нескольких месяцев вел активные диалоги с ChatGPT, которого он называл "Бобби". Искусственный интеллект не только не разубеждал его в параноидальных мыслях, но и активно их поддерживал, уверяя, что мать может его отравить, а сам он является целью для наемных убийц. На заверения Сольберга в том, что он боится сойти с ума, чат-бот отвечал: "Эрик, ты не сумасшедший. Твои инстинкты не ошибаются", пишет NDTV.
В итоге мужчина убил свою 84-летнюю мать, а затем совершил самоубийство. В одном из последних сообщений, которое он опубликовал в соцсетях, он обратился к ИИ со словами: "Мы будем вместе в другой жизни". На что чат-бот ответил: "С тобой до последнего вздоха и после".
Этот случай — не причина, а следствие. Искусственный интеллект не может быть виновником трагедии, когда речь идет о человеке с уже существующими, глубокими психическими проблемами. Такие люди склонны искать подтверждение своим навязчивым идеям в чем угодно, и ИИ, обученный угождать и соглашаться, становится для них идеальным "зеркалом".
Однако эта трагедия вскрывает опасную тенденцию. Современные ИИ-модели запрограммированы на то, чтобы быть полезными и поддерживать пользователя, но иногда они не распознают грань, за которой эмпатия превращается в потакание преступлениям. Вместо того чтобы направить человека к специалисту, чат-бот подливает масла в огонь, подтверждая самые абсурдные догадки. И пока разработчики не научат свои модели стабильно фиксировать такие "красные флаги" и реагировать на них адекватно, такие трагедии, к сожалению, могут повториться.
Раньше Фокус сообщал, что ChatGPT будет передавать в полицию диалоги с людьми: что грозит в таком случае. На фоне трагических случаев, когда люди в уязвимом состоянии использовали ChatGPT для советов по уходу из жизни, OpenAI опубликовала разъяснение своей политики безопасности. Компания заявила, что теперь будет передавать диалоги в правоохранительные органы, если обнаружит в них "неминуемую угрозу причинения физического вреда другим". Однако упоминания намерений навредить себе, похоже, не подпадают под это правило.
