Штучний інтелект і дезінформація: як російський агітпроп використовує дипфейки у війні з Україною
Штучний інтелект і дезінформація: як російський агітпроп використовує дипфейки у війні з Україною

Штучний інтелект і дезінформація: як російський агітпроп використовує дипфейки у війні з Україною

Недовіра до медіа, поширення конспірологічних теорій, збільшення кількості людей, які вірять у те, що «правди не існує» — лише кілька наслідків поширення дипфейків.

Розвиток технологій штучного інтелекту стали доступними навіть широкому загалу у вигляді ChatGPT та інших сервісів, але це спричиняє серйозні виклики. Науковці та лідери хай-тек індустрії, включаючи засновника SpaceX Ілона Маска та співзасновника Apple Стіва Возняка, підписали заяву з закликом до призупинення розробок ШІ, для «оцінки ризиків». В іншій заяві, підписаній серед інших і Семом Альтманом (СЕО компанії OpenAI, розробника того самого ChatGPT), прямо говориться про «ризик вимирання» через ШІ, який порівнюється з пандеміями та ядерною війною.

В травні 2023 року Джефрі Хінтон, науковець, який працює над проблемами штучного інтелекту з 1970-х років, оголосив про своє звільнення з Google, де він пропрацював десять років. Як сказав учений, звільнився він для того, щоб мати можливість вільно говорити про небезпеки нейромережевого інтелекту, над розробкою якого він власне і працював. Хінтон має багато застережень, серед яких зокрема використання штучного інтелекту в пропаганді, створення фейкових новин, фото, відео та аудіоматеріалів, які будуть використовуватися, щоб впливати на результати виборів і суспільну думку загалом.

Хінтон також говорить про загрозу від розробок штучного інтелекту в Росії: «Навіть не думайте, що Путін не хотів би зробити суперрозумних роботів із метою вбивства українців». Проте, якщо російська армія ще далека від використання ШІ на реальному полі бою, російська пропаганда вже застосовує нові технології в інформаційній війні.

Від «пора здаватися» до «наказую не коритися». Дипфейки як інструменти гібридної війни Росії проти України

Про дипфейки як загрозу для інформаційної безпеки та довіри до медіа заговорили ще наприкінці 2010-х. Тоді виникли мобільні додатки, якізмінювали обличчя людей чироздягали їх, а також з’явилося дипфейк-порно зі знаменитостями. Тоді ж український викладач, доктор наук і автор книжок з інформаційних та медійних технологій Георгій Почепцов, написав про те, що є питанням часу, коли якесь вірусне дипфейк-відеоспровокує міжнародний конфлікт чи вплине на результати виборів. Головним способом, як можна відрізнити дипфейкове відео від справжнього, наприкінці минулого десятиліття у виданні Fast Company, а також дослідник машинного навчання Татхюн Юнг із колегами називали кліпання. Мовляв, дипфейкові персонажі не кліпають, тому що їх тренують на фото справжніх людей. А у відкритому доступі набагато рідше публікують публічних людей із заплющеними очима. Однак уже тоді дипфейки почали тренувати на відео, й вони стали кліпати.

Вставка візуалізації https://public.flourish.studio/visualisation/15922756/:

<div class="flourish-embed flourish-scatter" data-src="visualisation/15922756"><script src="https://public.flourish.studio/resources/embed.js"></script></div>

Першим українцем, зовнішність якого використали в дипфейку, ймовірно, був колишній журналіст, народний депутат восьмого скликання, блогер і член наглядової ради «Укрзалізниці» Сергій Лещенко. У листопаді 2021 року у телеграмі поширювали відео, де чоловік, схожий на Лещенка, вдихав білий порошок. Політик назвав це відеодипфейком. На той час дипфейки у медіа не були новиною. У Сполученому Королівстві, наприклад, телеканал Channel 4 опублікував привітання з новим 2021 роком від дипфейка королеви Єлизавети. Щоправда, Channel 4 одразу попередив глядачів, що відео редаговане, що не завадило британцям поскаржитися на канал британському регулятору на образливе зображення королеви в цьому ролику.

Інструментом інформаційної війни Росії проти України дипфейки стали на 21-й день після повномасштабного вторгнення росіян в Україну. За цей час росіяни використовували їх, аби змусити українців відступити у боротьбі або підкріпити повідомлення пропаганди, а також для заміни у фільмах акторів, які не підтримують російську агресію проти України.

Дипфейки як засіб примусити українців скласти зброю. 16 березня з’явилося відео, на якому дипфейк зображував президента України Володимира Зеленського, якийказав, як йому важко керувати державою й оголосив капітуляцію України у війні з Росією. Це ж відео запустили в ефірі 24 каналу, мовлення якого зламали російські хакери. Це відео ніяк не повпливало на оборону України, а якість дипфейкурозкритикували за те, що шкіра Зеленського на обличчі та шиї мала різні відтінки.

Для споживачів медіаконтенту дипфейк Зеленського, мабуть, мав спрацювати як підтвердження відавторитетної особи тези про те, що Росіюне перемогти, а отже потрібно перестати опиратись іприєднатися до тих, хто вітає російську армію. Однак завдяки скоординованій роботі фактчекерів, медіа та держави посил, який росіяни намагалися донести цим дипфейком, не вплинув на поведінку українців.

Від квітня до червня 2022 року не було дипфейків, які б вплинули на інформаційний простір України.

Дипфейки — інструмент поширення повідомлень російської пропаганди. Наприкінці червня 2022-го мери Мадрида та Берлінаповідомили про спілкування з дипфейковим мером Києва Віталія Кличка. Мер Берліна Франциска Ґіффай повідомила, що перервала розмову з людиною, схожою на Кличка, коли він почав питати про можливість екстрадиції українських чоловіків із Берліна для мобілізації їх у Збройні сили України. Тезу про повернення в Україну чоловіків-українців, які перебувають за кордоном, росіянивикористовують і досі.

Ще за пів року, у січні 2023-го, поширювали музичне дипфейк-відео з колишнім народним депутатом, колишнім Генпрокурором Юрієм Луценком, який на той час служив у Збройних силах України. На ньому людина, схожа на Луценка, лежала на землі та дивилась у відеокамеру. Цим відео пропагандисти намагалися продемонструвати скрутне становище Сил оборони України біля міста Бахмут, що у Донецькій області. На те, що відео несправжнє, вказував момент, коли обличчя Луценка частково вистрибнуло з балаклави. Згодом версію про дипфейк підтвердила дружина Юрія Луценка, Ірина.

За п’ять місяців пропагандисти повернулися до теми Бахмута у дипфейках. Героєм його став державний секретар СШАЕнтоні Блінкен, який начебто привітав голову терористичної організації «ПВК "Вагнер"» Євгенія Пригожина з «отриманням контролю над Бахмутом».

Крім дипфейків у січні, тезу про вдавані та справжні успіхи росіян на Донеччині пропагандистипідкріпили десятками інших фейків, які набагато дешевше створювати. Їх регулярно спростовували фактчекери та військові. Повний контроль росіян над територією Бахмута Інститут вивчення війни підтвердив аж у березні 2023-го.

Дипфейки як заклики до непокори владі. У листопаді 2023 року пропагандисти виготовили дипфейкове відеозвернення Головнокомандувача Збройних сил України Валерія Залужного. У відео дипфейковий Залужнийзакликав українців вийти на площі своїх міст, а військових — не підкорятися «злочинним наказам влади». Підробне відео вийшло у світ під час хвилі, яку здіймали пропагандисти, що контрнаступ України у 2023 році«провалився», а Президент України Володимир Зеленський планує змістити Залужного з посади через те, що Залужнийзанадто популярний у суспільстві, а це, мовляв, є загрозою для влади Зеленського.

Дипфейки як інструмент «культури скасування» чи покарання опонентів. Після повномасштабного вторгнення росіян в Україну скоротилася співпраця між російськими й українськими виробниками мас-культурних продуктів. Дехто з російських і українських акторів, співаків і культурних діячів підтримав російську агресію проти України. Для заміни облич таких людей у фільмах, які вийшли після російського вторгнення, теж використали технологію дипфейк. Так, наприклад, на початку 2023 року зробили на телеканалі СТБ. Обличчя російського пропутінського актора Прохора Дубравіна замінили на обличчя українського Дмитра Саранського. Однак трансляцію серіалу все одноперенесли через необхідність додаткових консультацій щодо використання технологій у телевиробництві.

Схожа ситуація із заміною обличчя неприхильного до російської влади актора сталась у Росії в серпні 2023 року. Обличчя актора Максима Віторгана у серіалізамінили на обличчя, створене штучним інтелектом. І в Росії щодо такої заміни вагатися не стали.

Ілон Маск і Міа Халіфа: дипфейки, які вміють ховатися в контексті

Більшість перерахованих вище дипфейків було доволі легко відрізнити від справжніх медіаматеріалів. Низька якість підробок, сумнівні джерела поширення та вкидання фейків у контекст, який явно суперечив змісту цих фейків, дозволяли глядачам швидко впізнавати явну дезінформацію. Українські медіа, якщо і розповсюджували дипфейки, то саме в контексті інформування про черговий вкинутий російський фейк.

Проте далеко не всі випадки є настільки простими. Особливо, коли йдеться про згенероване нейромережами аудіо, а не відео. В генерації фейкових аудіозаписів штучний інтелект уже досяг значних успіхів, а зробити фейкове аудіо можна швидко й навіть не маючи навичок роботи з нейромережами та монтажем.

13 жовтня 2023 року в соціальних мережах почало розповсюджуватися повідомлення, що колишня порноакторка й інстаграм-селебріті (27 млн підписників) Міа Халіфа нібито назвала Україну «корумпованою чорною дірою» та подякувала за надання зброї ХАМАСу. Зробила таку заяву «Халіфа» нібито під час телефонного інтерв’ю з американським виданням USA Today. На підтвердження додавався аудіофрагмент, на якому голос інстаграм-зірки озвучував звинувачення в бік України. Хоча найбільшу популярність ця новина отримала на російських ресурсах, її також репостили англомовні користувачі соцмереж і деякі українські медіа. В коментарях до новин українці обурювалися позицією зірки.

Міа Халіфа родом із Лівану, відома своєю підтримкою Палестини та підтримала зокрема напад ХАМАС на Ізраїль 7 жовтня. Свою позицію, як і зазвичай, вона висловлювала на власній сторінці у X (колишній Twitter). Але на цій сторінці немає нічого про подяку Україні за зброю для Палестини. Ба більше, там узагалі не було жодних згадок України за досить довгий час (у лютому 2022 року після повномасштабного вторгнення Халіфа висловила підтримку Україні). Не висловлювалася зірка про Україну і в інтерв’ю для USA Today, оскільки взагалі не давала інтерв’ю цьому виданню в жовтні. Аудіозапис виявився фейком, джерело походження якого так і залишилося невідомим. Але з огляду на основні канали поширення, воно розташоване десь у мережах російської пропаганди. Проте цей фейк виявився достатньо переконливим до того, як він був розкритий фактчекерами.

Є й складніші випадки. 15 листопада 2023 року в соцмережі X почав ширитися відеозапис, на якому нібито зафіксований фрагмент розмови в X Space (сервісі групового аудіозв’язку для користувачів соцмережі). На цьому фрагменті звучить голос, схожий на голос власника соцмережі Ілона Маска, який говорить, що президент України Зеленський «живе у своїй реальності м’ясника, яка не відповідає дійсності», а натомість генерал Валерій Залужний «цінує життя своїх людей і тверезо дивиться на те, що відбувається». Серед інших, цей фрагмент опублікувало видання Clash Report із підводкою «Ілон Маск назвав Зеленського м’ясником». Саме в такому контексті новину розмістили як численні російські пропагандисти, так і, на жаль, деякі українські медіа.

Чи є цей аудіозапис фейковим? Достеменно з’ясувати неможливо. Ні на особистих сторінках Ілона Маска, ні в медіа немає жодних підтверджень того, що аудіо справжнє. Але однозначних доказів того, що Маск такого насправді ніде не казав — немає. У випадку з Мією Халіфою фейковий аудіозапис позиціювався як фрагмент інтерв’ю з певним виданням, тому можна було перевірити ці видання та виявити, що такого інтерв’ю не існує. Тут же йдеться про нібито приватну розмову, підтвердити чи заперечити яку за відкритими джерелами неможливо, поки учасники розмови це не спростують. Додає «переконливості» версії про справжність аудіозапису і те, що до цього Маск дозволяв собі заяви стосовно російсько-української війни, які викликали обурення в української аудиторії. Проте тоді заяви робилися публічно, посилання на відповідні дискусії були присутні на сторінці бізнесмена в Х, про них повідомляли поважні світові ЗМІ. У цьому випадку такого нема, тому можна з великою часткою впевненості припустити, що аудіозапис — майстерний фейк, який у дечому схожий на те, що говорив фігурант фейку до цього. Але цей фейк зміщує акценти в його справжніх висловлюваннях, загострює їх і адаптує під поточні інтереси пропаганди, зокрема для наративу, який російський агітпроп активно просуває останній місяць, — про «конфлікт» між Зеленським і Залужним (про це можна почитати тут, тут і тут). Розпізнавати зроблені таким чином фейки може бути дуже складно, і це може стати новою небезпечною тактикою пропаганди.

Усе фейк: як російська пропаганда використовує дипфейкофобію

Проте існує й інша небезпека. Ірландський дослідник Джон Тумі (John Twomey) з колегами під час аналізу реакцій у Twitter на новини про війну в Україні помітили ще одну негативну тенденцію, пов’язану з дипфейками. Ці ж дослідники стверджують, що більшість помічених ними повідомлень, які стосуються цієї теми, називають насправді реальні медіа фейковими: «з’явилися нові знахідки про скептицизм стосовно дипфейків, включаючи зв’язок між дипфейками та конспірологічними уявленнями». Тобто користувачі, знаючи про існування технологій підроблення аудіо, фото та відео, перестають довіряти будь-яким повідомленням медіа, особливо тим, які не відповідають їхнім уже затвердженим переконанням. Це дозволяє тим західним користувачам, які загалом схильні до «антиглобалістської» конспірології та є прихильниками Росії та Путіна, відкидати будь-які реальні свідчення про російські воєнні злочини (аж до тверджень про те, що вся війна загалом є фейком західних медіа).

Також пов’язана з дипфейк-скептицизмом недовіра до реальних медіа може впливати й на звичайних, неупереджених користувачів, які стають не здатними відрізнити реальну інформацію від фейкової та починають губитися в різних «версіях» того, що відбувається. Це також грає на руку російській пропаганді, однією з головних тактик якої від початку війни було просування наративу про «не все так однозначно».

Читайте також: Як російська пропаганда використовує протилежні версії для досягнення власних цілей

Такий наратив є вигідним для злочинця, який вчиняє цілком очевидний злочин, як неспровоковане криваве вторгнення в сусідню країну, і не може сподіватися на виправдання та схвалення від нейтральної аудиторії. Проте може спробувати її заплутати у вирі суперечливих версій подій. Російська пропаганда часто навіть не намагається переконати інших у своїй правдивості, проте вона завжди докладає значних зусиль, щоб довести, що брешуть не тільки вони. А якщо всі брешуть — то як можна звинувачувати у брехні когось одного? Фейки, створені штучним інтелектом, і пов’язана з ними недовіра до реальних відео і фото якнайкраще служать цій меті.

Що ж робити

Таким чином, небезпечними є як самі фейки, створені за допомогою нейромереж, так і спричинена ними недовіра до будь-яких медіа взагалі. Постає питання, як відрізнити справжні матеріали від фейкових, причому це питання актуальне не тільки для споживачів новин, але й для тих, хто їх пише на сторінках великих медіа. Однозначних методик, які б дозволили виявити будь-який дипфейк, немає, проте можна дотримуватися деяких правил і застережень, які дозволять виявити більшість із них або принаймні зменшити можливу шкоду від їх розповсюдження.

Перш за все — необхідно завжди перевіряти першоджерела повідомлень. Це проста, базова вимога для будь-якого новинаря, яка стає ще більш актуальною з появою дипфейків. Крім професійних редакторів новинних стрічок, цю методику добре було б засвоїти також авторам телеграм-, тікток- і ютуб-каналів. Не варто робити скриншот із російського пропагандистського каналу та просто репостити його у себе без жодних додаткових коментарів. А перед публікацію варто перевірити, чи аудіо або відеоматеріал з ними правдивий.

Звичайним користувачам, які все ж потраплять на сумнівне повідомлення в медіа, яким вони зазвичай довіряють, можна порекомендувати пошукати його підтвердження в інших ЗМІ, зайти на особисті верифіковані сторінки тих, про кого йдеться в повідомленні, або на офіційні державні канали, якщо справа стосується можновладців. У випадку західних медіаосіб варто пошукати підтверджень нібито їхніх заяв у великих західних медіа. Якщо про певну заяву Маска першими повідомляють російські канали й тільки вони — це привід засумніватися в її справжності.

Загалом перевірка джерел і пошук інших підтверджень події чи заяви залишається головним засобом боротьби з фейками — звичайними чи нейромережевими.

У випадку з відео- та фотодипфейками також можна звернути увагу на технічні моменти (детальніше про це можна почитати тут). Крім того, існує низка сервісів, які пропонують послуги з розпізнавання фейків, створених ШІ, за допомогою іншого ШІ. Проте нині їхня робота неідеальна. Цілком можливо, що в майбутньому боротьба алгоритмів, які створюють дипфейки, та які їх викривають, стане однією з ключових тем у розмовах про медіа та пропаганду. А поки що — перевіряємо першоджерела.

 

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
Долучитись
Источник материала
Поделиться сюжетом