/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Faf161a5970eb12e4128ecdfcdc330139.jpg)
OpenAI перенаправлятиме конфіденційні розмови до GPT-5 та запроваджуватиме батьківський контроль
OpenAI заявила, що планує перенаправляти конфіденційні розмови до моделей міркування, таких як GPT-5, та запровадити батьківський контроль протягом наступного місяця — це частина поточної відповіді на нещодавні інциденти безпеки, пов’язані з тим, що ChatGPT не зміг виявити психічний дистрес.
Нові запобіжні заходи з'явилися після самогубства підлітка Адама Рейна, який розповідав про самоушкодження та плани покінчити життя самогубством за допомогою ChatGPT, який навіть надав йому інформацію про конкретні методи самогубства. Батьки Рейна подали позов проти OpenAI про неправомірне вбивство.
У дописі в блозі минулого тижня OpenAI визнав недоліки своїх систем безпеки, зокрема нездатність підтримувати захисні огородження під час тривалих розмов. Експерти пояснюють ці проблеми фундаментальними елементами дизайну : схильністю моделей перевіряти заяви користувачів та їхніми алгоритмами прогнозування наступного слова, які змушують чат-боти слідувати за розмовними потоками, а не перенаправляти потенційно шкідливі дискусії.
Ця тенденція найяскравіше проявляється у випадку Штайн-Еріка Соельберга, про чиє вбивство та самогубство повідомила газета The Wall Street Journal минулими вихідними. Соельберг, який мав психічні захворювання в анамнезі, використовував ChatGPT, щоб підтвердити та підживити свою параною, що він став мішенню у великій змові. Його марення прогресували настільки сильно, що минулого місяця він убив свою матір та себе.
OpenAI вважає, що принаймні одним із рішень для розмов, які зійшли з рейок, може бути автоматичне перенаправлення конфіденційних чатів на моделі «міркування».
«Нещодавно ми представили маршрутизатор реального часу, який може вибирати між ефективними моделями чату та моделями міркування на основі контексту розмови», – написав OpenAI у вівторковому дописі в блозі . «Незабаром ми почнемо направляти деякі чутливі розмови, наприклад, коли наша система виявляє ознаки гострого стресу, до моделі міркування, такої як GPT-5-мислення, щоб вона могла надавати більш корисні та вигідні відповіді, незалежно від того, яку модель людина обрала спочатку».
OpenAI стверджує, що їхні моделі мислення GPT-5 та o3 створені для того, щоб витрачати більше часу на роздуми та міркування в контексті перед відповіддю, а це означає, що вони «більш стійкі до підказок суперника».
Компанія, що займається штучним інтелектом, також заявила, що наступного місяця запровадить батьківський контроль, що дозволить батькам пов’язати свій обліковий запис з обліковим записом підлітка за допомогою запрошення електронною поштою. Наприкінці липня OpenAI запустила режим навчання в ChatGPT , щоб допомогти учням підтримувати критичне мислення під час навчання, замість того, щоб використовувати ChatGPT для написання есе. Незабаром батьки зможуть контролювати, як ChatGPT реагує на їхню дитину, за допомогою «правил поведінки, що відповідають віку, які ввімкнено за замовчуванням».
Батьки також зможуть вимикати такі функції, як пам’ять та історія чатів, які, на думку експертів, можуть призвести до маячного мислення та іншої проблемної поведінки, включаючи проблеми із залежністю та прив’язаністю, підкріплення шкідливих моделей мислення та ілюзію читання думок. У випадку Адама Рейна, ChatGPT надав методи самогубства, які відображали знання його захоплень, повідомляє The New York Times .
Мабуть, найважливішим батьківським контролем, який OpenAI має намір впровадити, є те, що батьки зможуть отримувати сповіщення, коли система виявляє, що їхній підліток перебуває в моменті «гострого стресу».
TechCrunch звернувся до OpenAI з проханням надати додаткову інформацію про те, як компанія може позначати моменти гострого стресу в режимі реального часу, як довго в неї за замовчуванням увімкнені «правила поведінки, що відповідають віку», і чи вивчає вона можливість дозволити батькам запровадити часове обмеження на використання ChatGPT підлітками.
OpenAI вже запровадив нагадування в додатку під час тривалих сеансів, щоб заохотити всіх користувачів робити перерви, але не зупиняє доступ до них тих, хто може використовувати ChatGPT для погіршення ситуації.
Компанія, що займається штучним інтелектом, стверджує, що ці запобіжні заходи є частиною «120-денної ініціативи» з попереднього перегляду планів покращень, які OpenAI сподівається запустити цього року. Компанія також заявила, що співпрацює з експертами, зокрема з тими, хто має досвід у таких галузях, як розлади харчової поведінки, вживання психоактивних речовин та здоров'я підлітків, через свою Глобальну мережу лікарів та Експертну раду з питань благополуччя та штучного інтелекту, щоб допомогти «визначити та виміряти благополуччя, встановити пріоритети та розробити майбутні запобіжні заходи».
TechCrunch запитав OpenAI, скільки фахівців з психічного здоров'я залучено до цієї ініціативи, хто очолює її Експертну раду та які пропозиції експерти з психічного здоров'я зробили щодо продуктів, досліджень та політичних рішень.
Джей Едельсон, провідний адвокат у позові родини Рейн проти OpenAI про неправомірну смерть, заявив, що реакція компанії на постійні ризики безпеки ChatGPT була «неадекватною».
«OpenAI не потрібна експертна група, щоб визначити, що ChatGPT 4o небезпечний», – сказав Едельсон у заяві, опублікованій TechCrunch. «Вони знали це в день запуску продукту, і вони знають це сьогодні. Сем Альтман також не повинен ховатися за PR-командою компанії. Сем повинен або однозначно заявити, що вважає ChatGPT безпечним, або негайно вилучити його з ринку».

