Адвокати представили в суді докази, повністю вигадані й згенеровані штучним інтелектом
Адвокати представили в суді докази, повністю вигадані й згенеровані штучним інтелектом

Адвокати представили в суді докази, повністю вигадані й згенеровані штучним інтелектом

Нещодавній інцидент у Каліфорнії яскраво продемонстрував, наскільки нахабними можуть бути спроби використати цифрові інструменти для маніпуляції правосуддям, та змусив суддю вжити безпрецедентних заходів для реагування, пише 24 Канал з посиланням на Futurism.

Як ШІ підробив докази?

Історія, що сколихнула юридичну спільноту, розгорнулася навколо житлової суперечки. Позивачі вирішили підкріпити свою позицію відеозаписом, який мав слугувати свідченням очевидця. Однак замість живого свідка суд побачив щось вкрай дивне: на екрані з'явилася жінка з розмитим обличчям, міміка якої виглядала дуже неприродно. Її рухи обмежувалися лише хаотичним ворушінням губ та рідкісним кліпанням, тоді як решта виразу обличчя залишалася статичною. Ба більше, відео містило різкі монтажні переходи, після якого рухи персонажа циклічно повторювалися.

Переглянути абсолютно безсумнівний ШІ-фейк можна за цим посиланням.

Для судді Вікторії Колаковскі походження цього матеріалу було очевидним – це був низькоякісний діпфейк. Реакція суду була миттєвою та суворою: 9 вересня справу було закрито саме через спробу використання згенерованих свідчень.

Проте позивачі не здалися і подали клопотання про перегляд рішення, аргументуючи це тим, що суд нібито не довів факт використання штучного інтелекту при створенні відео. Ця зухвала спроба також зазнала невдачі – у листопаді суддя остаточно відхилила їхні вимоги.

Великі наслідки

Цей випадок став тривожним сигналом для всієї системи, а також, як зазначає NBC News, одним із перших прикладів, коли підозрюваний діпфейк був поданий як нібито справжній доказ у суді та виявлений.

Суддя Колаковскі згодом заявила, що юридична професія лише починає усвідомлювати масштаби загрози. Вихід таких потужних інструментів, як Sora 2 від OpenAI, показав, що створення фальшивих відеодоказів більше не вимагає глибоких технічних знань. Тепер будь-хто зі смартфоном може згенерувати відео, на якому людина нібито вчиняє злочин, наприклад, крадіжку в магазині. Технологія перебуває на ранній стадії розвитку, але її вплив вже відчутний.

На щастя, в цьому випадку позивачі були настільки необачними й непрофесійними, що навіть не подумали зробити своє відео реалістичним. Ролик також містить згенерований голос, який продовжує лунати без перебоїв, коли сам відеоряд періодично обривається і починається заново.

Теги за темою
Техно
Джерело матеріала
loader
loader