OpenAI запроваджує нову функцію ChatGPT після випадків суїцидів
OpenAI запроваджує нову функцію ChatGPT після випадків суїцидів

OpenAI запроваджує нову функцію ChatGPT після випадків суїцидів

Історія починається з низки судових позовів проти OpenAI. Родини кількох користувачів, які вчинили самогубство після взаємодії з ChatGPT, заявили, що чат-бот нібито підштовхував до суїцидальних думок або навіть допомагав у плануванні самогубства. Ці звинувачення вимагали негайної реакції та перегляду заходів безпеки.

У відповідь на ці виклики, OpenAI оголосила про запуск нової, необов'язкової функції під назвою Trusted Contact (Довірена особа). Ця функція призначена для повнолітніх користувачів ChatGPT і дозволяє їм призначити довірену особу – друга, члена сім'ї або опікуна.

Механізм дії Trusted Contact передбачає кілька етапів. Спочатку система за допомогою автоматизованого моніторингу аналізує розмови. Якщо чат містить ознаки потенційного самоушкодження, користувачеві пропонується самостійно звернутися до довіреної особи та надаються варіанти для початку такої розмови.

Після цього, ситуацію перевіряє спеціально навчена команда модераторів OpenAI. Якщо вони вважають ризик серйозним, довірений контакт отримує коротке повідомлення електронною поштою, SMS або через застосунок ChatGPT. Це повідомлення не містить деталей листування, зберігаючи приватність користувача, а лише інформує про виявлення потенційно тривожних ознак.

Розробка цього інструменту стала результатом спільної роботи з понад 170 експертами, клініцистами, дослідниками та організаціями, що займаються питаннями психічного здоров'я. До консультацій також була залучена Глобальна мережа лікарів компанії, яка об'єднує понад 260 спеціалістів із 60 країн.

OpenAI наголошує, що функція Trusted Contact є лише одним із кількох рівнів безпеки і не замінює професійної допомоги. Чат-бот і надалі рекомендуватиме користувачам звертатися до кризових гарячих ліній, екстрених служб або фахівців із психічного здоров'я. Ця ініціатива є продовженням раніше запроваджених заходів, таких як батьківський контроль, що дозволяє батькам отримувати попередження про психологічний стрес у підліткових акаунтах.

Компанія OpenAI запровадила функцію "Довірена особа" для ChatGPT на тлі судових позовів від сімей, які стверджують, що чат-бот сприяв суїцидальним думкам або допомагав їх планувати. Цей крок відображає зростаюче усвідомлення відповідальності технологічних компаній за психологічний стан своїх користувачів.

Запровадження функції стало продовженням інструментів батьківського контролю, які компанія запустила у вересні минулого року. OpenAI раніше дозволила батькам отримувати попередження, якщо система виявляє ознаки гострого психологічного стресу у підліткових акаунтах. Більше оперативних новин у Telegram Апострофа (Більше оперативних новин у Telegram Апострофа) також повідомляється про те, що ця функція є додатковим кроком до забезпечення безпеки користувачів.

"Воно не містить детальної інформації про те, що обговорювалося, щоб захистити приватність користувача," — зазначає компанія OpenAI, пояснюючи принцип сповіщень довіреної особи, як про це пише Tech Crunch.

У OpenAI підкреслюють, що новий інструмент не замінює професійну допомогу, а є лише одним із кількох рівнів безпеки, які мають на меті допомогти людям отримати підтримку у кризових ситуаціях.

Ініціатива OpenAI показує, що штучний інтелект не лише може бути джерелом знань та розваг, а й відіграватиме важливу роль у системі підтримки психічного здоров'я. Цей крок відображає зростаюче усвідомлення технологічними гігантами своєї соціальної відповідальності та відкриває нові можливості для взаємодії людини з технологією, де безпека та емпатія стають пріоритетом.

Джерело матеріала
loader
loader