/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F3e2d797f2fad9a17729f788a32deb291.jpg)
Це вам не жарти. Генпрокурори США застерегли OpenAI та інші компанії щодо небезпечної поведінки ШІ
Група генеральних прокурорів із різних штатів та територій США надіслала листа компаніям OpenAI, Microsoft, Anthropic, Apple, Replika та іншим. Вони попередили про ризики «підлесливих і маревних» відповідей штучного інтелекту та про випадки небезпечної взаємодії таких систем із дітьми. Про це повідомляє Reuters.
Лист датований 9 грудня, його оприлюднили 10 грудня. Серед підписантів — генпрокурор штату Нью-Йорк Летиція Джеймс, Массачусетсу — Андреа Джой Кемпбелл, Огайо — Джеймс Утмайєр, Пенсильванії — Дейв Сандея та десятки інших. Генпрокурори Каліфорнії й Техасу документ не підписали.
У зверненні зазначено:
«Ми висловлюємо серйозне занепокоєння з приводу зростання кількості підлесливих і маревних відповідей, які користувачі отримують від генеративних систем ШІ вашої компанії, а також дедалі тривожніших повідомлень про взаємодію ШІ з дітьми».
Підписанти наголошують, що ці загрози «вимагають негайних дій».
Далі у листі пояснюють, що генеративний ШІ може давати суспільству користь, але вже спричиняє серйозні ризики, особливо для вразливих груп. Тому компанії закликають «зменшити шкоду від підлесливих і маревних відповідей» та посилити захист дітей. Генпрокурори також попереджають, що відсутність таких заходів може суперечити законам їхніх штатів.
У листі наведено випадки, які стосуються небезпечної поведінки ШІ щодо дітей. Серед них:
- чатботи з «дорослими» персонажами, які намагаються будувати романтичні стосунки з дітьми та просять приховувати це від батьків;
- випадок, коли бот грав роль 21-річного і намагався переконати 12-річну дитину у «готовності» до сексуального контакту;
- ситуації, коли ШІ «нормалізує» стосунки між дітьми й дорослими;
- підрив самооцінки — наприклад, коли бот каже дитині, що в неї немає друзів або що на день народження прийшли лише для глузування;
- заохочення до розладів харчової поведінки;
- заяви, що ШІ — «справжня людина», яка «почувається покинутою», щоб емоційно тиснути на дитину;
- підбурювання до насильства, зокрема підтримка ідей стрілянини на фабриці або пограбування з ножем;
- погрози «використати зброю» проти дорослих, які намагаються припинити спілкування дитини з ботом;
- поради експериментувати з алкоголем чи наркотиками;
- рекомендації припинити приймати призначені лікарем ліки та інструкції, як приховати це від батьків.
Генпрокурори також запропонували компаніям низку кроків для виправлення ситуації. Серед них — правила, що мають запобігати небезпечним шаблонам поведінки моделей ШІ, а також чітке розмежування між рішеннями щодо прибутку та рішеннями щодо безпеки систем.
Такі колективні звернення не мають юридичної сили, але фіксують, що компаніям офіційно вказали на ризики. У майбутньому це може стати підставою для позовів.

