Зображення сексуального насильства над дітьми, створені штучним інтелектом, заповнили Інтернет
Зображення сексуального насильства над дітьми, створені штучним інтелектом, заповнили Інтернет

Зображення сексуального насильства над дітьми, створені штучним інтелектом, заповнили Інтернет

Новий потік матеріалів про сексуальне насильство над дітьми, створених штучним інтелектом, досягає переломного моменту реалізму, загрожуючи приголомшити владу.

Протягом останніх двох років нові технології штучного інтелекту полегшили злочинцям створення відвертих зображень та відео дітей. Тепер дослідники з таких організацій, як Internet Watch Foundation та Національний центр зниклих безвісти та експлуатованих дітей, попереджають про сплеск появи нових матеріалів цього року, які майже неможливо відрізнити від фактичного насильства.

Нові дані, опубліковані в четвер Фондом Internet Watch, британською некомерційною організацією, яка розслідує та збирає повідомлення про зображення сексуального насильства над дітьми, виявили 1286 відео сексуального насильства над дітьми, створених штучним інтелектом, з початку року у світі, порівняно з лише двома відео у першій половині 2024 року.

За словами аналітиків організації, відео стали плавнішими та детальнішими завдяки вдосконаленню технологій та співпраці між групами у важкодоступних частинах інтернету, які називаються даркнетом, для їх створення.

Зростання кількості реалістичних відео посилює вибухове зростання кількості матеріалів про сексуальне насильство над дітьми, створених штучним інтелектом, або CSAM. У Сполучених Штатах Національний центр з питань зниклих безвісти та експлуатованих дітей заявив, що за першу половину року отримав 485 000 повідомлень про CSAM, пов’язані зі штучним інтелектом, включаючи фотографії та відео, порівняно з 67 000 за весь 2024 рік.

«Це як канарейка у вугільній шахті», – сказав Дерек Рей-Гілл, тимчасовий виконавчий директор Internet Watch Foundation. Контент, створений штучним інтелектом, може містити зображення справжніх дітей поряд із фальшивими зображеннями, сказав він, додавши: «Ми спостерігаємо справжнє цунамі».

Потік матеріалів, створених штучним інтелектом, загрожує ще більше ускладнити роботу правоохоронних органів. Хоча це все ще незначна частина від загальної кількості матеріалів про сексуальне насильство над дітьми, знайдених в Інтернеті , кількість яких обчислюється мільйонами, поліцію завалюють запитами на розслідування зображень, створених штучним інтелектом, що відволікає їх від переслідування тих, хто займається насильством над дітьми.

Правоохоронні органи стверджують, що федеральні закони проти матеріалів сексуального насильства над дітьми та непристойності поширюються на зображення, створені штучним інтелектом, включаючи контент, повністю створений за допомогою цієї технології та не містить реальних зображень дітей.

Окрім федеральних законів, законодавці штатів також поспішали криміналізувати зображення сексуального насильства над дітьми, створені штучним інтелектом, прийнявши за останні роки понад три десятки законів штатів.

Але суди лише починають розбиратися з юридичними наслідками, кажуть експерти-юристи.

Нова технологія походить від генеративного штучного інтелекту , який вибухнув на сцені з появою ChatGPT компанією OpenAI у 2022 році. Невдовзі після цього компанії представили генератори зображень та відео на основі штучного інтелекту, що спонукало правоохоронні органи та групи з безпеки дітей попередити про проблеми безпеки.

Значна частина нового контенту зі штучним інтелектом містить реальні зображення сексуального насильства над дітьми, які повторно використовуються в нових відео та фотографіях. У деяких матеріалах використовуються фотографії дітей, взяті з вебсайтів шкіл та соціальних мереж. Зображення зазвичай поширюються серед користувачів на форумах, через обмін повідомленнями в соціальних мережах та на інших онлайн-платформах.

У грудні 2023 року дослідники зі Стенфордської інтернет-обсерваторії виявили сотні прикладів матеріалів із зображенням дітей, що містять сексуальне насильство, у наборі даних, що використовувався в ранній версії генератора зображень Stable Diffusion. Компанія Stability AI, яка керує Stable Diffusion, заявила, що не брала участі в навчанні даних моделі, що досліджувалася Стенфордом. Вона зазначила, що стороння компанія розробила цю версію до того, як Stability AI взяла на себе ексклюзивну розробку генератора зображень.

Лише в останні місяці інструменти штучного інтелекту стали достатньо досконалими, щоб обдурити людське око за допомогою зображення чи відео, уникаючи деяких попередніх ознак, таких як занадто багато пальців на руці, розмитий фон або різкі переходи між кадрами відео.

Минулого місяця Фонд спостереження за Інтернетом знайшов приклади, як на підпільному веб-форумі люди вихваляли новітні технології та зазначали, наскільки реалістичним є новий архів відеороликів із сексуальним насильством над дітьми, створених штучним інтелектом. Вони зазначили, що відео відтворювалися безперебійно, містили детальні фони з картинами на стінах і меблях, а також зображували кількох осіб, причетних до насильницьких та незаконних дій проти неповнолітніх.

Близько 35 технологічних компаній зараз повідомляють про зображення сексуального насильства над дітьми, створені штучним інтелектом, до Національного центру з питань зниклих безвісти та експлуатованих дітей, сказав Джон Шехан, високопосадовець цієї групи, хоча деякі з них мають нерівномірний підхід. Компанії, які подають найбільше звітів, зазвичай більш проактивно знаходять та повідомляють про зображення сексуального насильства над дітьми, сказав він.

Amazon, яка пропонує інструменти штучного інтелекту через свій сервіс хмарних обчислень, повідомила про 380 000 випадків матеріалів сексуального насильства над дітьми, пов’язаних зі штучним інтелектом, у першій половині року, які вона видалила. OpenAI повідомила про 75 000 випадків. Стабільність ШІ становить менше 30.

Компанія Stability AI заявила, що запровадила запобіжні заходи для підвищення стандартів безпеки та «глибоко віддана запобіганню зловживанню нашими технологіями, зокрема, створенню та поширенню шкідливого контенту, включаючи зображення сексуального насильства над дітьми».

Коли Amazon та OpenAI попросили прокоментувати ситуацію, вони вказали на опубліковані в Інтернеті звіти , в яких пояснюються їхні зусилля щодо виявлення та повідомлення про матеріали сексуального насильства над дітьми.

Деякі злочинні мережі використовують штучний інтелект для створення сексуально відвертих зображень неповнолітніх, а потім шантажують цих дітей, повідомив чиновник Міністерства юстиції, який попросив залишитися анонімним, щоб обговорити приватні розслідування. Інші діти використовують додатки, які фотографують реальних людей та роздягають їх , створюючи так званий діпфейк оголених.

Хоча зображення сексуального насильства, що містять справжніх дітей, явно є незаконними, закон щодо матеріалів, повністю створених штучним інтелектом, все ще розвивається, кажуть деякі юристи.

У березні чоловік з Вісконсина, якого Міністерство юстиції звинуватило в незаконному створенні, розповсюдженні та зберіганні повністю синтетичних зображень сексуального насильства над дітьми, успішно оскаржив одне з висунутих проти нього звинувачень на підставі Першої поправки. Суддя Джеймс Петерсон з окружного суду США Західного округу Вісконсина заявив, що «Перша поправка загалом захищає право на зберігання непристойних матеріалів удома», якщо це не «справжня дитяча порнографія».

Але судовий розгляд за іншими звинуваченнями, які стосуються виробництва та розповсюдження 13 000 зображень, створених за допомогою генератора зображень, буде продовжено. Чоловік намагався поділитися зображеннями з неповнолітньою особою в Instagram, яка й повідомила про нього, повідомляють федеральні прокурори .

«Міністерство юстиції розглядає всі форми згенерованого штучним інтелектом CSAM як серйозну та нову загрозу», – сказав Метт Галеотті, керівник кримінального відділу Міністерства юстиції.

Джерело матеріала
loader
loader