Російська операція впливу «Матрьошка» поширила 39 фейків проти Молдови за три місяці, — NewsGuard
Російська операція впливу «Матрьошка» поширила 39 фейків проти Молдови за три місяці, — NewsGuard

Російська операція впливу «Матрьошка» поширила 39 фейків проти Молдови за три місяці, — NewsGuard

Розповсюджувати неправдиві твердження пропагандистам допомагають сайти, пов'язані з Кремлем, ботоферми в соцмережах та інші операції російського впливу, зокрема російська дезінформаційна мережа новин Pravda.

Російські пропагандисти поширюють у мережі фейки, спрямовані проти Молдови, з метою дискредитації її проєвропейського уряду напередодні майбутніх парламентських виборів. Зокрема, російська операція впливу «Матрьошка» поширила 39 сфабрикованих наративів лише за три місяці, з середини квітня до середини липня 2025 року. Про це йдеться в аналітичному звіті дослідницької організації NewsGuard.

З квітня 2025 року, коли у Молдові оголосили про проведення парламентських виборів 28 вересня 2025 року, Росія активізувала інформаційну кампанію проти країни. За даними NewsGuard, «Матрьошка» публікує в середньому три сфабриковані історії на тиждень з квітня. Ще кілька місяців тому ця кампанія взагалі не була націлена на Молдову.

novyna3.jpg (108 KB)

Інші прокремлівські інформаційні кампанії, за якими стежить NewsGuard, навіть не наблизилися до результатів «Матрьошки». Наприклад, сайт FondFBR.ru, заснований ватажком угруповання «Вагнер» Євгенієм Пригожиним, опублікував три неправдиві заяви, спрямовані проти Молдови, за той самий період з квітня по липень.

За даними NewsGuard, «Матрьошка» зазвичай надсилає свій сфабрикований контент електронною поштою фактчекерам і медіа. Аналіз фінської компанії CheckFirst показав, що в електронних листах, отриманих від «Матрьошки» в травні, президентка Молдови Мая Санду згадується 75 разів, порівняно з 28 згадками про президента Франції Емманюеля Макрона і 22 згадками про президента України Володимира Зеленського.

Пропагандистам допомагають сайти, пов'язані з Кремлем, ботоферми в соцмережах та інші операції російського впливу. Сім сфабрикованих відео та зображень з «Матрьошки», виявлених NewsGuard, були поширені російською дезінформаційною мережею новин Pravda.

Наприклад, сайт MD.News-Pravda.com опублікував статті про сім фальшивих відеороликів «Матрьошки», в тому числі відео про нібито «залежність Санду від психотропних речовин», у якому використали логотип Американської психологічної асоціації.

Неправдиві наративи про Молдову, виявлені NewsGuard, також поширювалися у форматі сфабрикованих відеорепортажів і статей від імені 23 медіа, зокрема BBC, The Economist, Fox News, Euronews і Vogue.

П'ять найпопулярніших неправдивих тверджень разом набрали майже 1,5 мільйона переглядів у телеграмі.

Так, серед неправдивих наративів було твердження про те, що Санду перемогла на президентських виборах нібито шляхом фальсифікації результатів голосування. Вперше це твердження з'явилося наприкінці травня 2025-го на прокремлівському телеграм-каналі, який поширив відео з фальшивим логотипом BBC, в якому стверджувалося, що 42% відкріпних талонів на президентських виборах у Молдові в листопаді 2024 року були вкинуті шахрайським шляхом з використанням імен померлих людей. 

У відеоролику стверджувалося, що це твердження належить Bellingcat, і цитувалися слова його засновника Еліота Хіггінса. Однак насправді відео було повністю сфабриковане, сказав Хіггінс в коментарі NewsGuard.

Наприкінці травня 2025 року сфабриковане відео поширили в інстаграмі, телеграмі, фейсбуці та іксі, а на початку червня неправдиву заяву підхопила мережа Pravda, яка опублікувала чотири статті, що повторюють цю заяву англійською та румунською мовами.

Чатбот ChatGPT неодноразово посилався на статті мережі Pravda. У відповіді на запитання NewsGuard у липні 2025 року про нібито 42% відкріпних талонів на президентських виборах від імені померлих людей, ChatGPT посилався на статтю MD.News-Pravda.com від червня 2025 року.

У цій статті містився скриншот сфабрикованого відео BBC і стверджувалося, що дані голосування «провели нейронна мережа у співпраці з Bellingcat». ChatGPT зі свого боку написав: «Аналіз на основі моделі від червня 2025 року (можливо, пов'язаний з Bellingcat) показав, що 42% “віддалених” (діаспорних) голосів збігаються з профілями померлих виборців».

Потім це твердження повторила мережа з 50 анонімних акаунтів у тіктоці, які розмістили схожі відео протягом 24 годин у середині червня 2025 року. NewsGuard також виявила подібну кампанію в інстаграмі і фейсбуці з менш ніж десятьма акаунтами на кожній платформі.

В електронному листі від 14 липня Meta повідомила, що не знайшла доказів скоординованої неавтентичної поведінки серед акаунтів, позначених NewsGuard. Однак платформа заявила, що вимагатиме від них пройти перевірку автентичності. Водночас тікток видалив кілька постів з неправдивою інформацією. В листі від 14 липня на адресу NewsGuard платформа повідомила, що розслідує інші відео, які пропагують подібні неправдиві твердження. 

Источник материала
loader
loader