У тіктоці відомих журналісток перетворюють на фейки за допомогою ШІ, — Texty.org.ua
У тіктоці відомих журналісток перетворюють на фейки за допомогою ШІ, — Texty.org.ua

У тіктоці відомих журналісток перетворюють на фейки за допомогою ШІ, — Texty.org.ua

Серед тих, чиї образи використовуються найактивніше, — Соломія Вітвіцька, Анастасія Даугуле та Алла Мазур.

У соцмережі TikTok зростає кількість відео, де українських журналісток за допомогою штучного інтелекту перетворюють на фейкових ведучих новин. Про це йдеться у дослідженні видання Texty.org.ua, яке проаналізувало 595 згенерованих ШІ відео, де використовувалися образи відомих жінок. Ці ролики набрали понад 24 млн переглядів.

Переважна частина проаналізованого контенту мала ознаки аудіовтручання — реальні новинні сюжети були озвучені новими голосами, створеними для просування певного меседжу, сюжету чи наративу. Інколи голос штучно моделювався під відомих українських телеведучих, і це посилювало ефект правдивості.

Аналітики видання промаркували 328 тікток-відео з аудіоманіпуляціями та ще 267 відео, де штучний інтелект використовувався для створення чи зміни зображення і голосу.

Видання зазначає, що творці ШІ-контенту часто експлуатують образи відомих українських журналісток і телеведучих, тому що медійники асоціюються з довірою, а впізнавані обличчя збільшують перегляди і поширюваність контенту. 

Серед журналісток, чиї образи використовуються найактивніше, — Соломія Вітвіцька з «1+1» (17 відеогенерацій і 83 аудіоманіпуляції), Анастасія Даугуле з телеканалу «Інтер» (26 відеогенерацій і 42 аудіоманіпуляції) та Алла Мазур з «1+1» (13 відеогенерацій і 42 аудіоманіпуляції).

У тіктоці відомих журналісток перетворюють на фейки за допомогою ШІ, — Texty.org.ua - Фото 1

Фейковий контент впливає на репутацію журналістки, сприйняття її аудиторією. Люди часто плутають реальну людину з її шахрайською копією і починають хейтити за те, що говорить ця копія, йдеться в дослідженні.

Аналітики кажуть, що ті, хто експлуатує образи популярних телеведучих, водночас копіюють і відомі медіабренди. У назвах тікток-акаунтів, через які просувалися фейкові журналістки, часто з’являлися елементи, які викликали асоціації з легітимними новинними джерелами. Наприклад, частка «tsn» фігурувала щонайменше в п’ятнадцяти акаунтах.

Образи журналісток використовують із різною метою — від антиукраїнських і деструктивних наративів до закликів підписатися на канали. Найпоширенішими темами є петиція / опитування (268 відео), грошові виплати / гуманітарна допомога (145), деструктивні / антиукраїнські наративи (116), дискредитація України жартами (22), нагнітання (18), інше (26).

Серед візуальних сигналів, які вказують на фейковість відео, є надто елегантний зовнішній вигляд, надміру гладка шкіра, ідеальні зуби, глянцевість волосся, відсутність складок на одязі, пласкі аксесуари тощо.

Типовими ознаками штучного походження голосу є неприродний рух губами, бездоганна вимова без властивих людській мові недоліків, роботизована інтонація окремих слів чи фраз, відсутність природного фонового шуму, а також фрази чи терміни, які в реальному житті людина навряд чи використовувала б.

Аналітики Texty.org.ua зауважують, що викрадення образу і голосу журналісток — це свідомий інструмент маніпуляції, що поєднує онлайн-насильство, дискредитацію та потенційні ризики для національної безпеки.

Політики ТікТок вимагають чіткого маркування контенту  створеного чи істотно зміненого штучним інтелектом. На платформі також заборонено створювати контент, що імітує реальних осіб без їхньої згоди, вводить в оману або поширює дезінформацію. Однак на практиці дотримання цих практик непослідовне.

«Наше дослідження засвідчило, що численні згенеровані ШІ відео з реальними журналістками публікувалися без належного маркування, інколи містили дезінформацію чи образи. Політики ТікТоку часто ігноруються, що ставить під сумнів ефективність захисту користувачів від синтетичного контенту та координованої неавтентичної поведінки», — зауважили аналітики видання.

Texty.org.ua шукали відео в тіктоці, у яких присутні жінки-журналістки, з 1 серпня по 30 вересня. Для збору даних використали техніку снігової кулі, яка передбачає застосування хештегів. Зі знайдених відео відібрали ті, де є елементи ШІ-генерації (аудіо чи відео) або ШІ-модифікації. Дати публікації відео з набору охоплюють період із 2023 по 2025 рік. 

Фото: Texty.org.ua 

LIKED THE ARTICLE?
СПОДОБАЛАСЯ СТАТТЯ?
Help us do more for you!
Допоможіть нам зробити для вас більше!
Команда «Детектора медіа» понад 20 років виконує роль watchdog'a українських медіа. Ми аналізуємо якість контенту і спонукаємо медіагравців дотримуватися професійних та етичних стандартів. Щоб інформація, яку отримуєте ви, була правдивою та повною.

До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування спільних ідей та отримувати більше ексклюзивної інформації про стан справ в українських медіа.

Мабуть, ще ніколи якісна журналістика не була такою важливою, як сьогодні.
Долучитись
Теги по теме
исследование
Источник материала
loader
loader