Штучний інтелект змінює обличчя, або Що таке діпфейк
Штучний інтелект змінює обличчя, або Що таке діпфейк

Штучний інтелект змінює обличчя, або Що таке діпфейк

Колишній президент США Барак Обама у відеозверненні назвав свого наступника Дональда Трампа "засранцем", Кіану Рівз зіграв головного героя фільму "Форрест Гамп", а Джон Сноу вибачився перед фанатами за фінал "Гри престолів".

Все це, звичайно ж, неправда.

Але в інтернеті гуляють безліч відеороликів, де політики або актори вимовляють фрази, яких ніколи не говорили.

І такі фейкові ролики, що називаються діпфейками, мають моторошно правдивий вигляд.

Діпфейк – це.

У грубому перекладі з англійської deepfake означає "глибока підробка" (deep ‒ глибокий, fake ‒ фальшивка).

Технологія діпфейків змушує людину на відео говорити те, чого вона не вимовляла, і робити те, чого ніколи не робила.

Здебільшого для створення таких роликів використовується генеративно-змагальна нейромережа (GAN), яку у 2014 році створив студент Стенфордського університету Ян Гудфеллоу.

Процес створення діпфейка, не заглиблюючись у складні технічні подробиці, має такий вигляд: один алгоритм генеративно-змагальної нейромережі вивчає фото й відео з певною людиною і створює зображення, буквально "змагаючись" з іншим алгоритмом, поки той не почне плутати копію та оригінал.

У такий спосіб зображення однієї людини, ніби маска, накладається на іншу.

ins{.

The Economist пояснює процес створення діпфейка на прикладі відео з Обамою.

Створення фейкового ролика починається зі збору фотографій екс-президента США.

Світлини необхідно завантажити до програми, яка встановить статистичний зв'язок між візуальним образом Обами і будь-яким аспектом, який потрібно підробити.

"Якщо ви хочете попросити Обаму сказати те, чого він ніколи не говорив, тоді ви маєте спрямувати своє програмне забезпечення на вивчення зв'язків між конкретними словами і формою рота Обами, коли він їх вимовляє.

Щоб прикріпити його обличчя до рухомого тіла іншої людини, ви маєте спрямувати ПЗ на вивчення зв'язків між особою й тілом", - пише видання.

Щоб зробити мультимедіа реалістичнішими, можна змусити програмне забезпечення конкурувати з власною копією – одна версія генерує діпфейки, а інша намагається їх розпізнати.

Плюси і мінуси.

Пересічний користувач не завжди може відрізнити справжнє відео від змонтованого.

І на думку одного з провідних експертів в області діпфейків Хао Лі, упродовж півроку-року технології досягнуть такого рівня, що підроблене відео вже буде неможливо відрізнити від оригіналу.

"У нас є лише від 6 до 12 місяців, щоб навчитися розпізнавати підробки, відрізнити від реальності… Незабаром настане момент, коли ми більше не зможемо виявити (підробки, - ред.), тому нам доведеться шукати інші типи рішень", - сказав Хао Лі в інтерв'ю CNBC, записаному у вересні поточного року.

Політичні діпфейки перед американськими виборами 2020 року вже заборонили в Каліфорнії.

На початку вересня аналогічне рішення ухвалили законодавці Техасу.

Як зазначається у статті Foreign Affairs, використання діпфейків на політичній арені буде дійсно "страшним" явищем.

У Китаї публікацію діпфейків віднесли до кримінальних злочинів.

Після набрання чинності відповідного закону із січня 2020 року всі фейкові відео мають супроводжуватися спеціальною відміткою, яка попереджатиме користувачів, що це несправжня новина.

Водночас, попри існування обґрунтованих аргументів проти діпфейків, існують також їхні прихильники, які, наприклад, вважають, що ця технологія може стати корисною для кіноіндустрії.

Діпфейк у дії.

Один з найпопулярніших прикладів діпфейка, який ми вже згадували вище, ‒ це "відеозвернення" колишнього американського лідера Барака Обами, в якому він називає Дональда Трампа "засранцем".

Зрозуміло, що нічого подібного Обама не говорив, а ролик насправді був створений за допомогою програми Fakeapp і графічного редактора Adobe After Effects.

Опублікували його у 2018 році американський режисер Джордан Піл та видання Buzz.

Feed з метою показати, якими в майбутньому будуть фейкові новини.

"У разі катастрофи на Місяці".

Так називався текст, який написав спічрайтер 37-го президента США Річарда Ніксона на випадок загибелі екіпажу під час висадження на Місяць у 1969-му.

З огляду на те, що місія "Аполлон-11" завершилася успіхом, підготовлена заздалегідь траурна промова Ніксону не знадобилася.

Повертаючись до діпфейків, зазначимо, що президент все ж таки "повідомив" про загибель екіпажу.

Відповідний фейковий відеоролик було презентовано на Міжнародному кінофестивалі в Амстердамі.

Для створення цього відео співробітникам Центру доповненої реальності Массачусетського технологічного інституту спершу довелося візуалізувати мову Ніксона, а потім відтворити його голос.

До слова, для цього команда співпрацювала з українським стартапом Respeecher, який із допомогою нейромереж відтворює голос будь-якої людини.

А ось такий вигляд має "перетворення" американської актриси Дженніфер Лоуренс у актора Стіва Бушемі.

Наступний діпфейк обов'язковий до перегляду шанувальникам Ніколаса Кейджа.

На цьому ролику обличчя актора з'являється в кадрах з різних фільмів.

Американська телеведуча Опра Вінфрі з обличчям боксера Майка Тайсона:.

Або поява Джокера у фільмі "Історія лицаря":.

"Гра престолів" теж не залишилася осторонь.

Після виходу останнього сезону серіалу з'явився ролик, в якому один з героїв шоу Джон Сноу перепрошує за такий фінал саги.

А в цьому діпфейку можна подивитися на Кіану Рівза у ролі Фореста Гампа (насправді головного героя однойменного фільму зіграв американський актор Том Генкс):.

У червні цього року з'явилося фейкове відео з власником Facebook Марком Цукербергом, в якому він говорить про те, що "одна людина володіє краденими даними про мільярди людей, всі їхні таємниці, їхнє життя та майбутнє".

І нарешті відео, яке ми анонсували ще в самому початку: "поєднання" за допомогою нейромережі Трампа і Путіна.

Творцем діпфейка є моушен-дизайнер і художник з Берліна Олександр Курт.

Бонус: за цим посилання ви потрапите на сайт, де можна випробувати свої сили в розпізнаванні осіб і спробувати відрізнити портрети реальних людей від тих, що створює нейромережа.

Попереджаємо! Вгадувати можна до нескінченності.

Источник материала
Поделиться сюжетом