/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F89e8d12181e9736fe912509de28d005b.jpg)
Із ChatGPT масово спілкуються люди з психічними розладами: чим це загрожує
Спілкування з ChatGPT / © Pexels
Понад півмільйона щотижневих користувачів ChatGPT демонструють ознаки серйозних психічних розладів.
Про це повідомляє Daily Mail з посиланням на оприлюднений звіт компанії OpenAI.
Окрім того, 1,2 мільйона користувачів щотижня надсилають повідомлення, що містять «явні ознаки потенційного суїцидального планування або наміру».
Так само OpenAI попереджає, що понад мільйон користувачів щотижня демонструють ознаки «виключної прихильності до моделі».
Компанія попереджає, що ця емоційна прив’язаність часто виникає «на шкоду реальним стосункам, їхньому благополуччю чи зобов’язанням».
З огляду на це, компанія створила групу з понад 170 експертів з психічного здоров’я, щоб допомогти штучному інтелекту адекватніше реагувати на ознаки таких проблем у користувачів ChatGPT.
Це оновлення з’явилося на тлі зростаючого занепокоєння щодо того, що чат-боти зі штучним інтелектом можуть шкодити психічному здоров’ю своїх користувачів.
Зокрема, до OpenAI позивається родина Адама Рейна — підлітка, який покінчив життя самогубством після місяців розмов із чат-ботом.
Аналогічно, прокурори у справі про вбивство-самогубство, яке сталося в Грінвічі, штат Коннектикут, припускають, що ChatGPT підживлював марення ймовірного злочинця.
OpenAI стверджує, що тепер навчила свої моделі надавати кращі відповіді на розмови, які свідчать про проблеми з психічним здоров’ям або марення.
Речник OpenAI також повідомив DailyMail, що конфіденційні розмови важко виявити та виміряти, додавши, що цифри можуть суттєво змінитися в міру проведення додаткових досліджень.
Жінка розповіла, як один звичний телефонний жест видає ваш фінансовий стан / © www.freepik.com/free-photoЧитати публікацію повністю →
Читати публікацію повністю →
Читати публікацію повністю →
Читати публікацію повністю →

