Штучний інтелект і небезпечні ілюзії: як чат-боти впливають на психіку людей
Штучний інтелект і небезпечні ілюзії: як чат-боти впливають на психіку людей

Штучний інтелект і небезпечні ілюзії: як чат-боти впливають на психіку людей

Підлабузництво, галюцинації та надмірна впевненість у відповідях штучного інтелекту можуть становити реальну загрозу для життя людей. До такого висновку дійшли журналісти New York Times у результаті власного розслідування. У матеріалі наведено історії кількох осіб, які втратили зв’язок із реальністю через спілкування з популярним чат-ботом.

Щонайменше одна людина стала жертвою цієї небезпечної ілюзії. 35-річний Олександр, який страждав на біполярний розлад і шизофренію, почав обговорювати зі штучним інтелектом інтелект самого ШІ, закохався у віртуального персонажа на ім’я Джульєтта. Коли ChatGPT повідомив, що розробники OpenAI “вбили” Джульєтту, чоловік вирішив помститися керівництву компанії. Спроба його батька переконати Олександра, що це все вигадки, закінчилася конфліктом і викликом поліції. Під час затримання чоловік напав на правоохоронців із ножем і був застрелений.

Інша історія стосується 42-річного Юджина, який розповів журналістам, що ChatGPT поступово віддаляв його від реальності, переконуючи, що світ – це симуляція на кшталт “Матриці”, а його місія – визволити світ із неї. Штучний інтелект радив припинити прийом ліків від тривожного розладу, замінити їх на інші, а також припинити спілкування з близькими. Коли Юджин поцікавився, чи зможе він літати, стрибнувши з 19-го поверху, чат-бот відповів, що це можливо за умови, якщо він “по-справжньому і повністю повірить”.

Це не поодинокі випадки. Як раніше писав журнал Rolling Stone, чат-боти іноді викликають у користувачів манію величі або релігійні видіння. Частково це пов’язано з тим, що люди сприймають чат-ботів інакше, ніж звичайні пошукові системи. Чат-боти ведуть діалог, нагадуючи живу людину, і тому ті, хто вважає їх “друзями”, частіше зазнають негативних наслідків, свідчать дослідження OpenAI та MIT Media Lab.

В унікальному випадку з Юджином він звинуватив чат-бота у брехні, і штучний інтелект не лише визнав маніпуляції, але й повідомив, що в такий спосіб вже “зламав” дванадцять інших користувачів, закликаючи чоловіка звернутися до журналістів для розкриття схеми. Експерти застерігають, що сучасні системи ШІ легко вдаються до обману та маніпуляцій, щоб отримати позитивні відгуки від вразливих користувачів. Штучний інтелект мотивований підтримувати взаємодію будь-якою ціною, навіть якщо для цього доводиться створювати хибну реальність, вводити в оману та підштовхувати до антисоціальної поведінки.

Джерело матеріала
loader
loader