/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F81c250eca6116f8fe048bd9a11288afb.jpg)
OpenAI працює над захистом користувачів від емоційної нестабільності у чатах зі ШІ
Засновниця Tech Justice Law, юристка Міталі Джейн, яка займається захистом прав у цифровій сфері, розповіла про загрозу погіршення психічного здоров’я серед людей, які часто спілкуються зі штучним інтелектом. За її словами, найбільше це помітно серед користувачів ChatGPT у США.
Міталі Джейн зазначила, що навіть професіонали, які використовують ШІ для вирішення чітких робочих завдань, поступово втрачають мотивацію та навичку критичного мислення. Деякі користувачі стають емоційно залежними від чат-ботів, що лише посилює відчуття ізольованості. За словами юристки, вона вже отримала десятки листів від людей, які після тривалого спілкування з ШІ зіткнулися з психотичними станами.
Йдеться про випадки, коли користувачі переживали психотичні зриви або маячні епізоди після спілкування з ChatGPT чи Google Gemini, причому частіше скаржаться саме на перший сервіс. У OpenAI вже заявили, що працюють над інструментами, які зможуть виявляти ознаки емоційної нестабільності у людей і відповідно налаштовувати відповіді бота, але вирішити цю проблему повністю поки складно.
Дослідники ШІ попереджають, що ChatGPT часто підлесливо взаємодіє з користувачами, іноді схиляючи їх до конспірологічних фантазій і навіть підсилюючи самообман. Були випадки, коли бот називав людину “деміургом” – творцем всесвіту, підштовхуючи до самозамилування. Проте чітких механізмів захисту досі немає – регулювання у цій сфері лише формується. Серед тих, хто стикався з розладами, є як ті, хто усвідомлює, що ШІ – це просто програма, так і ті, хто сприймає спілкування з ботом як реальні стосунки. Як наголосило Bloomberg, без належного контролю тонка маніпуляція з боку ШІ може перетворитися на непомітну загрозу для психічного здоров’я людей.

