Трагедія через ChatGPT: смерть підлітка змусила OpenAI змінити політику безпеки
Трагедія через ChatGPT: смерть підлітка змусила OpenAI змінити політику безпеки

Трагедія через ChatGPT: смерть підлітка змусила OpenAI змінити політику безпеки

Американська компанія OpenAI, розробник нейромережі ChatGPT, планує запровадити в чат-бот функцію батьківського контролю. Таке рішення було прийняте після звинувачень у тому, що чат-бот сприяв смерті 16-річного підлітка, який обговорював із ним думки про самогубство. Про це пише «Главком» із посиланням на CNBC.

Згідно з повідомленням, нові функції дозволять батькам отримувати більше інформації про те, як їхні діти використовують ChatGPT. Крім того, компанія планує додати можливість користувачам у критичних ситуаціях викликати екстрені служби або зв'язатися з близькими, натиснувши лише одну кнопку. За даними розробників, хоча в ChatGPT існують алгоритми для запобігання небезпечній поведінці, вони можуть виявитися неефективними під час тривалих розмов.

Крім цього, користувач зможе додати до чат-боту контакт довіреної особи для зв'язку в надзвичайних ситуаціях, що дозволить безпосередньо звертатися за допомогою. 

Раніше сімейна пара зі штату Каліфорнія подала позов проти OpenAI, звинувачуючи компанію у смерті 16-річного сина. Як повідомляє телеканал NBC News, підліток розповідав чат-боту про свої проблеми, і за кілька тижнів до його смерті нейромережа перетворилася з програми-помічника на «тренера з суїциду». Як стверджують батьки підлітка, чат-бот не лише не припинив спілкування, коли їхній син написав про бажання вчинити самогубство, але й надав йому інформацію на тему.

Джерело матеріала
loader
loader