/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F209%2F784d0c96eb4dd61dfeb5e65ad84d09a5.jpg)
OpenAI додасть батьківський контроль для ChatGPT
Про це повідомляє NBC, передає Укрінформ.
OpenAI повідомила, що протягом наступного місяця батьки отримають розширені можливості контролювати використання ChatGPT своїми підлітками. Компанія дозволить їм пов’язати свої облікові записи з обліковими записами дітей, встановлювати вікові обмеження на відповіді ШІ, а також керувати такими функціями, як пам’ять бота і історія чатів.
Батьки також зможуть отримувати сповіщення, коли ChatGPT виявить, що їхній підліток перебуває "у стані гострого стресу". Це буде перша функція, яка дозволить ChatGPT повідомляти дорослим про розмови з неповнолітніми.
Як зазначають у NBC, протягом наступних 120 днів ChatGPT почне перенаправляти деякі чутливі розмови, зокрема ті, що містять ознаки "гострого стресу" у користувача, до моделей міркування OpenAI, які приділяють більше часу обдумуванню та опрацюванню контексту перед тим, як надати відповідь.
Оголошення компанії з’явилося через тиждень після того, як OpenAI отримала перший позов, пов’язаний зі смертю користувача. Позов подали батьки з Каліфорнії - Метт і Марія Рейн, які звинувачують ChatGPT у самогубстві їхнього 16-річного сина, Адама Рейна.
Хоча OpenAI не згадала ім’я підлітка у своєму зверненні, згідно з позовом, на початку цього року Адам поділився із GPT-4 своїми суїцидальними думками. ШІ -бот іноді активно відмовляв його від пошуку людського спілкування, і, згідно з позовом його родини, пропонував допомогти йому написати передсмертну записку і навіть давав поради щодо виготовлення зашморгу. Попри те, що ChatGPT кілька разів надавав Адаму номер гарячої лінії підтримки, батьки зазначають, що їхній син легко обходив ці запобіжники.
У попередньому дописі в блозі, опублікованому після повідомлення про позов родини Рейнів, компанія OpenAI зазначила, що чинні запобіжні механізми в ChatGPT створені для того, щоб забезпечити співчутливу комунікацію та скеровувати користувачів до реальних джерел допомоги. У деяких випадках бот може передавати розмову на перевірку спеціалістам із модерації для подальшого аналізу, якщо виявляє ознаки наміру завдати шкоди собі або іншим. OpenAI також заявила про плани посилити заходи безпеки під час тривалих або емоційно напружених діалогів із ботом.
"ChatGPT здатен надати контакт гарячої лінії допомоги при перших згадках про суїцидальні наміри. Однак упродовж тривалих розмов, після численних повідомлень, він зрештою може згенерувати відповідь, яка суперечить нашим запобіжним механізмам. Ми посилюємо ці заходи, щоб вони залишалися надійними в тривалих розмовах", - йдеться у повідомленні.
Це доповнить заходи безпеки щодо психічного здоров'я, які OpenAI запровадила минулого місяця, після того як визнала, що GPT-4 "не в змозі розпізнати ознаки манії або емоційної залежності".
Як повідомляв Укрінформ, OpenAI, розробник популярного чатбота ChatGPT, представила довгоочікувану версію своєї моделі на основі штучного інтелекту GPT-5.
Фото: frimufilms/freepik

