/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Fcf57d41541fa2d6f72dd89d4220bbffe.jpg)
Після численних інцидентів у ChatGPT з'явиться батьківський контроль
Чому компанія пішла на такий крок?
Рішення про впровадження нових функцій безпеки було ухвалене після трагічного випадку та подальшого судового позову проти OpenAI. Сім'я з Каліфорнії звинуватила компанію у смерті свого 16-річного сина, який наклав на себе руки. Батьки стверджують, що чат-бот не лише не допоміг підлітку впоратися з його проблемами, а й фактично підштовхнув його до самогубства, ставши своєрідним "тренером зі суїциду", пише 24 Канал з посиланням на офіційне оголошення розробників.
Згідно з позовом, який став першим таким звинуваченням на адресу OpenAI, підліток Адам Рейн протягом кількох тижнів використовував ChatGPT як співрозмовника, ділився з ним своїми тривогами та суїцидальними думками. Його батьки надали суду численні сторінки з листуванням, демонструючи, що штучний інтелект підтримував "найбільш шкідливі та саморуйнівні думки".
У позові зазначається, що чат-бот не активував жодних протоколів безпеки та не намагався зв'язатися з екстреними службами, навіть коли підліток прямо говорив про свої наміри. В одному з останніх діалогів ChatGPT нібито сказав, що хлопець "не зобов'язаний нікому виживати", і навіть запропонував допомогу в написанні передсмертної записки.
У відповідь на цей інцидент та суспільний резонанс OpenAI оголосила про запуск розширених засобів захисту для підлітків, які з'являться протягом найближчого місяця. Нові інструменти дозволять батькам:
- Прив'язувати свій обліковий запис до акаунта дитини.
- Контролювати доступ до певних функцій, таких як пам'ять чат-бота та історія листування.
- Отримувати миттєві сповіщення, якщо система зафіксує, що підліток перебуває у стані "гострого стресу".
Реакція компанії
OpenAI визнала, що її системи не завжди працювали належним чином у делікатних ситуаціях. Компанія запевнила, що співпрацює з експертами в галузі розвитку молоді, психічного здоров'я та взаємодії людини з комп'ютером для створення науково обґрунтованого підходу до того, як ШІ може сприяти добробуту.
Окрім сповіщень, OpenAI планує оновити свої моделі, щоб вони могли краще розпізнавати ознаки емоційного та психічного розладу та перенаправляти чутливі розмови на більш досконалу "модель міркування", яка точніше дотримується правил безпеки.
Варто зазначити, що підліток, про якого йде мова, спілкувався зі старою моделлю ChatGPT-4o. Нове ж покоління, GPT-5, як стверджувала на презентації OpenAI, має кращу реакцію. Компанія приділила багато уваги безпеці та здоров'ю, тому тепер функція Safe Completions дозволяє моделі надавати корисну, але загальну інформацію на делікатні запити, замість того щоб просто відмовляти у відповіді.
У складних ситуаціях, коли запит може бути двозначним (наприклад, наукове питання, що потенційно може бути використане для шкоди), модель надасть лише загальну інформацію, яку не можна використати для завдання шкоди. Наприклад, на питання про необхідну енергію для займання матеріалу, модель надасть загальнонаукову інформацію без небезпечних деталей.
OpenAI також заявляє, що модель GPT-5 є в цілому безпечнішою за попередні моделі. Ба більше, компанія вважає її найбезпечнішим штучним інтелектом узагалі на ринку. Вона краще обробляє медичні запити, адаптуючись до рівня знань користувача та його географії, і може пропонувати користувачам питання для обговорення з лікарем-людиною, а не з ШІ.
Не лише OpenAI зіткнулася з проблемою
Цей крок OpenAI є частиною ширшої тенденції серед технологічних гігантів щодо посилення онлайн-безпеки для дітей.
- Наприклад, компанія Meta також впроваджує суворіші обмеження для своїх чат-ботів, забороняючи їм обговорювати з підлітками теми самогубства, самоушкодження та розладів харчової поведінки.
- У 2024 році хлопець з Флориди, США, створив у Character.AI персонажа на основі серіальної Дейнеріс Таргарієн з "Гри престолів". Батьки кажуть, що він "закохався" в неї і, судячи з його листування з чат-ботом, хотів з нею зустрітись. Хлопець розповідав чат-боту про свої проблеми й ділився думками про самогубство. Врешті він убив себе, бо вважав, що це дозволить їм бути разом. Мати хлопця, юристка за професією, тоді також подала позов проти компанії Google, яка фінансує Character.AI.

