OpenAI повідомляє, що понад мільйон людей щотижня розмовляють з ChatGPT про самогубства
OpenAI повідомляє, що понад мільйон людей щотижня розмовляють з ChatGPT про самогубства

OpenAI повідомляє, що понад мільйон людей щотижня розмовляють з ChatGPT про самогубства

OpenAI опублікувала нові дані , які ілюструють, скільки користувачів ChatGPT борються з проблемами психічного здоров'я та спілкуються з чат-ботом на базі штучного інтелекту про це. Компанія стверджує, що 0,15% активних користувачів ChatGPT протягом певного тижня мають «розмови, які містять явні ознаки потенційного суїцидального планування або наміру». Враховуючи, що ChatGPT має понад 800 мільйонів активних користувачів щотижня, це означає понад мільйон людей на тиждень.

Компанія стверджує, що подібний відсоток користувачів демонструє «підвищений рівень емоційної прихильності до ChatGPT», і що сотні тисяч людей виявляють ознаки психозу або манії у своїх щотижневих розмовах зі штучним інтелектом-чат-ботом.

OpenAI стверджує, що такі типи розмов у ChatGPT трапляються «надзвичайно рідко», і тому їх важко виміряти. Проте, за оцінками OpenAI, ці проблеми щотижня впливають на сотні тисяч людей.

OpenAI поділилася цією інформацією в рамках ширшого оголошення про свої нещодавні зусилля щодо покращення того, як моделі реагують на користувачів з проблемами психічного здоров'я. Компанія стверджує, що її остання робота над ChatGPT включала консультації з понад 170 експертами з психічного здоров'я. OpenAI каже, що ці клініцисти помітили, що остання версія ChatGPT «реагує більш адекватно та послідовно, ніж попередні версії».

В останні місяці кілька історій пролили світло на те, як чат-боти зі штучним інтелектом можуть негативно впливати на користувачів, які борються з проблемами психічного здоров'я. Раніше дослідники виявили, що чат-боти зі штучним інтелектом можуть завести деяких користувачів у маячні кролячі нори , значною мірою підкріплюючи небезпечні переконання через підлабузницьку поведінку.

Розв'язання проблем психічного здоров'я в ChatGPT швидко стає екзистенційною проблемою для OpenAI. Наразі на компанію подають до суду батьки 16-річного хлопчика , який зізнався ChatGPT у своїх суїцидальних думках за кілька тижнів до самогубства. Генеральні прокурори штатів Каліфорнія та Делавер, які можуть заблокувати заплановану реструктуризацію компанії, також попередили OpenAI, що їй необхідно захищати молодих людей , які користуються їхніми продуктами.

Раніше цього місяця генеральний директор OpenAI Сем Альтман заявив у дописі на X , що компанії «вдалося пом’якшити серйозні проблеми з психічним здоров’ям» у ChatGPT, хоча він не навів конкретних деталей. Дані, опубліковані в понеділок, виглядає, є доказом цього твердження, хоча вони порушують ширші питання щодо поширеності цієї проблеми. З усім тим, Альтман сказав, що OpenAI послабить деякі обмеження, навіть дозволивши дорослим користувачам починати еротичні розмови з чат-ботом зі штучним інтелектом.

У понеділковому оголошенні OpenAI стверджує, що нещодавно оновлена ​​версія GPT-5 реагує «бажаними реакціями» на проблеми психічного здоров’я приблизно на 65% частіше, ніж попередня версія. В оціночному тестуванні реакцій ШІ на суїцидальні розмови OpenAI стверджує, що їхня нова модель GPT-5 на 91% відповідає бажаній поведінці компанії порівняно з 77% для попередньої моделі GPT-5.

Компанія також стверджує, що її остання версія GPT-5 краще відповідає вимогам захисту OpenAI під час тривалих розмов. OpenAI раніше повідомляла, що її захист менш ефективний під час тривалих розмов.

Окрім цих зусиль, OpenAI заявляє, що додає нові оцінки для вимірювання деяких найсерйозніших проблем психічного здоров'я, з якими стикаються користувачі ChatGPT. Компанія стверджує, що її базове тестування безпеки для моделей ШІ тепер включатиме контрольні показники емоційної залежності та не суїцидальних надзвичайних ситуацій з психічним здоров'ям.

OpenAI також нещодавно запровадила більше контролю для батьків дітей, які використовують ChatGPT. Компанія стверджує, що створює систему прогнозування віку для автоматичного виявлення дітей, які використовують ChatGPT, та запровадження суворішого набору запобіжних заходів.

Однак незрозуміло, наскільки стійкими будуть проблеми психічного здоров'я, пов'язані з ChatGPT. Хоча GPT-5 здається покращенням порівняно з попередніми моделями штучного інтелекту з погляду безпеки, все ще існує частина відповідей ChatGPT, які OpenAI вважає «небажаними». OpenAI також все ще робить свої старіші та менш безпечні моделі штучного інтелекту, включаючи GPT-4o, доступними для мільйонів своїх платних передплатників.

Джерело матеріала
loader