Компанія втратила 25 мільйонів доларів через обман з використанням діпфейка
Компанія втратила 25 мільйонів доларів через обман з використанням діпфейка

Компанія втратила 25 мільйонів доларів через обман з використанням діпфейка

Уся ця ситуація ще раз показує, наскільки далеко просунулася технологія підробки обличчя. Шахраї, ймовірно, використовували загальнодоступні відеозаписи для створення фальшивих аватарів співрозмовників, у яких ніхто не розпізнав підробку.

Деталі

Як пише джерело, шахраї здійснили кілька відеодзвінків. Імовірно, в кадрі весь час була лише одна людина, якій штучний інтелект змінював зовнішність. Інші люди в кадрі, як припускають, були повністю цифровими й домальовувалися програмою. Правоохоронці кажуть, що такого ще ніколи не бачили. Зазвичай підробляють лише одну людину.

Цю операцію почали готувати в середині січня, надіславши гонконгській філії фішингове повідомлення нібито від головного офісу компанії. Що було в цьому повідомленні, не розкривають. Але можна припустити, що це був якийсь анонс відеоконференції чи повідомлення про необхідність проведення секретного грошового переказу.

Словом, співробітника фінансового відділу обманом змусили повірити в необхідність здійснення транзакції. Попри перші сумніви, співробітник взяв участь у груповій відеоконференції, в якій брали участь підроблені версії фінансового директора компанії, а також інші співробітники, які виглядали і говорили, як їхні реальні колеги.

Цього разу під час відеоконференції з кількома людьми виявилося, що всі, кого ви бачите, несправжні. Вони використовували технологію глибокої підробки, щоб імітувати голоси своїх цілей,
– розповів старший суперінтендант Чан Шун-Чін в інтерв'ю SCMP.

За словами Чана, жертвами шахраїв стали три співробітники. Ще один також брав участь в організованій відеоконференції. Усі вони кажуть, що люди в кадрі "виглядали справжніми". Тож в підсумку вони зробили переказ у розмірі 200 мільйонів гонконгських доларів.

Технологія Deepfake існує вже не перший рік. Ми бачили численні відео зірок, які говорять те, чого ніколи не казали, Барака Обаму, який вибиває двері ногою, Ілона Маска, який рекламує криптовалюти, та інше. Але такі підробки завжди були на досить низькому рівні. До того моменту, коли в гру вступив сучасний штучний інтелект. Він дозволяє підвищити реалізм згенерованої картинки настільки, що результат буквально неможливо відрізнити від оригіналу. Для деяких нейромереж достатньо лише кілька секунд відео чи аудіо, щоб почати імітувати зовнішність і голос людини. Минулого тижня невідомі почали масово поширювати підробні порнографічні зображення співачки Тейлор Свіфт, піднявши справжній переполох у ЗМІ та соцмережах.

Теги по теме
Интернет
Источник материала
Упоминаемые персоны
loader
loader