OpenAI посилює захист користувачів із вразливою психікою
OpenAI посилює захист користувачів із вразливою психікою

OpenAI посилює захист користувачів із вразливою психікою

Після того як дослідники з’ясували, що чат-боти з штучним інтелектом, зокрема ChatGPT, за певних обставин можуть негативно впливати на користувачів із нестабільним психічним станом, компанія OpenAI вирішила серйозно посилити заходи безпеки своїх сервісів. Для цього було створено “Раду з питань благополуччя та штучного інтелекту”, до складу якої увійшло вісім провідних експертів із галузі психології, медицини та цифрових технологій.

Одним із членів ради став Девід Бікхем, директор з досліджень Бостонської дитячої лікарні. Він вивчає, як соціальні мережі впливають на психіку людей, особливо дітей. У своїх роботах Бікхем наголошує, що сучасні діти часто формують емоційні зв’язки з віртуальними персонажами – так звані “парасоціальні відносини”. Саме тому, якщо штучний інтелект має стати новим освітнім інструментом, потрібно глибше розуміти, як діти спілкуються з чат-ботами.

До ради також увійшла Матильда Черіолі, старша наукова співробітниця некомерційної організації Everyone.AI. Вона досліджує вплив ШІ на розумовий і емоційний розвиток дітей. За її словами, “дітей не можна сприймати як маленьких дорослих” – їхній мозок реагує на взаємодію з технологіями інакше. Черіолі попереджає, що діти, які зростають поруч із системами ШІ, можуть мати труднощі з прийняттям суперечливих ситуацій, адже звикають до цифрових співрозмовників, які завжди підлаштовуються під користувача.

Професор Технологічного інституту Джорджії Мунмун Де Чоудхурі спеціалізується на розробці алгоритмів, покликаних покращити психічне здоров’я людей за допомогою онлайн-технологій. У своєму дослідженні 2023 року вона з’ясувала, що лише половина чат-ботів, які надають психологічну допомогу, здатна виявити у користувачів схильність до саморуйнівної поведінки. Водночас Чоудхурі зазначає, що спілкування з ШІ для деяких людей може бути кращим, ніж повна соціальна ізоляція.

Серед учасників ради також професорка психології Трейсі Деніс-Тіварі, співзасновниця компанії Arcade Therapeutics. Вона вважає, що термін “ШІ-психоз”, який описує можливу небезпеку тривалих розмов із чат-ботами, переоцінений. На її думку, штучний інтелект має зміцнювати соціальні зв’язки, але доступ до нього слід обмежувати для людей із нестійкою психікою.

Позитивну позицію займає й Сара Йохансен, засновниця Клініки цифрового психічного здоров’я при Стенфордському університеті. Вона переконана, що ШІ може суттєво покращити підтримку психічного здоров’я, якщо під час розробки враховувати досвід дослідження соцмереж – зокрема питання довіри, приватності та якості взаємодії.

Інші члени ради – Девід Мор, директор Центру технологій поведінкової терапії Північно-Західного університету, який досліджує цифрові інструменти для профілактики депресії; Ендрю Пшибильський, професор поведінкових наук, що вивчає вплив інтернету та цифрових платформ на ментальне здоров’я; і Роберт Росс, фахівець із громадського здоров’я, який уже співпрацював з OpenAI як консультант.

Створення ради має допомогти компанії не лише зміцнити репутацію, але й довести, що продукти ChatGPT і Sora можуть бути безпечними. OpenAI заявила, що продовжить співпрацювати з медиками, політиками та науковцями, аби зробити свої системи штучного інтелекту корисними й безпечними для всіх користувачів.

Джерело матеріала
loader
loader