Цифрові двійники відомих українок: як діпфейки маніпулюють свідомістю глядачів
Цифрові двійники відомих українок: як діпфейки маніпулюють свідомістю глядачів

Цифрові двійники відомих українок: як діпфейки маніпулюють свідомістю глядачів

Як шахраї обманюють користувачів у соцмережах?

Аналіз сотень відеороликів у соціальних мережах виявив тривожну статистику: лише вибірка кількох десятків прикладів згенерованого контенту з обличчями медійниць зібрала понад 24 мільйони переглядів. Велике розслідування видання Texty.org.ua показало, що під приціл найчастіше потрапляють такі впізнавані особи, як Соломія Вітвіцька, Алла Мазур та Анастасія Даугуле. Технології дозволяють не лише накласти чужий голос на відеоряд, а й повністю змоделювати міміку та рухи людини, створюючи так звані діпфейки, пише 24 Канал.

Зловмисники роблять ставку на психологію. Журналістки, які роками працюють у кадрі, викликають у глядачів стійке відчуття довіри й емпатії. Цей авторитет цинічно використовується для пробивання інформаційних бар'єрів. Коли впізнавана ведуча "повідомляє" про соціальні виплати або політичні зміни, критичне мислення користувача часто вимикається.

Це не просто технологічний експеримент, вважає видання, а форма цифрового і гендерного насильства, що б’є по репутації самих ведучих. Згідно з даними ресурсу "Жінки в медіа", на який посилається Texty.org.ua, у відсотковому виразі жінки становлять більшість у медіагалузі України.

Тематика таких підробок різноманітна, але завжди маніпулятивна:

  • Майже половина виявлених відео містить заклики підтримати петиції: від мобілізації правоохоронців до абсурдних політичних рокіровок.
  • Ще чверть контенту – це класичне шахрайство, де обіцяють фінансову допомогу від міжнародних організацій чи держави, аби виманити персональні дані довірливих громадян.
  • Близько 20% роликів транслюють відверто ворожі наративи, спрямовані на дестабілізацію ситуації в країні, дискредитацію військового керівництва або поширення паніки.

Серед інших відомих персон шахраї використовують імена Наталії Островської, Ірини Прокоф'євої, Марічки Падалко, Наталії Мосейчук, Лілії Налягаки, Анастасії Мазур, Олени Морозової, Юлії Бориско, Лідії Таран, Нелі Шовкопляс, Оксани Гутцайт і Валерії Ковалінської.

Як розпізнати підробку?

Технічна якість таких підробок постійно зростає, проте їх все ще можна розпізнати за певними маркерами.

  • Штучний інтелект часто залишає артефакти: неприродно гладка шкіра, дивна артикуляція, розсинхронізація рухів губ зі звуком, "плаваючі" кінцівки або предмети в кадрі.
  • Голос, хоч і схожий на оригінал, може звучати роботизовано, з неправильними наголосами та неприродним ритмом.
  • У фейкових відео ведучі часто не дивляться в камеру, а їхні очі виглядають розфокусованими.

Проблема ускладнюється алгоритмами самого TikTok, які сприяють вірусному поширенню емоційного контенту, незалежно від його правдивості. Хоча платформа декларує боротьбу з дезінформацією, на практиці модерація часто не встигає за темпами створення клонів.

Усе це створює небезпечний прецедент, коли цифрова особа людини може жити своїм життям, завдаючи шкоди реальному прототипу та суспільству загалом.

Теги за темою
Техно Інтернет
Джерело матеріала
loader
loader