Армія коментаторів. Як ШІ перетворив російські ботоферми на зброю впливу
Армія коментаторів. Як ШІ перетворив російські ботоферми на зброю впливу

Армія коментаторів. Як ШІ перетворив російські ботоферми на зброю впливу

2024 рік став першим в історії інтернету, коли активність ботів перевищила людську. Про це йдеться в Bad Bot Report, щорічному звіті компанії Imperva, яка аналізує автоматизований трафік у мережі.

Усе завдяки штучному інтелекту, який відчутно збільшив швидкість і масштабованість інформаційних операцій.

Російські ботоферми, що роками намагаються вплинути на суспільну думку в Україні, завдяки ШІ перетворилися на самостійні екосистеми автоматизованих коментаторів. Вони здатні генерувати сотні тисяч коментарів щомісяця, працюючи цілодобово без участі людини.

Боти-коментатори в українських соцмережах з'являлися з часів Революції гідності. Тоді "Агентство інтернет-досліджень" Євгена Пригожина, відоме як "ольгінські тролі", наймало сотні росіян, які за гроші переписували новини або публікували коментарі за спущеною згори методичкою.

10 років тому журналіст Богдан Кутєпов написав колонку з інструкцією, як розпізнати такого бота. Наприклад, поспілкуватися з ним чи загуглити аватарку. Сьогодні ця інструкція незворотньо застаріла. Аватарка, найімовірніше, буде згенерована штучним інтелектом, а дискутуватиме бот краще за багатьох людей.

Адже нині найманих працівників у петербурзьких офісах замінив генеративний штучний інтелект, який коштує дешевше, а роботу виконує якісніше. Він працює без перерви на сон чи вихідні і дає замовнику ширші можливості масштабувати кампанію впливу, виходячи за межі звичних регіонів та мов.

Ця технологія вже активно використовується для того, щоб впливати на громадську думку та формувати хибний суспільний консенсус.

Боти і Telegram-окупація

Влітку цього року дослідницькі команди OpenMinds та DFRLab, що спеціалізуються на аналізі дезінформації та онлайн-маніпуляцій, виявили і дослідили понад 3600 ботів у Telegram-каналах окупованих територій України.

За менш ніж півтора року вони написали щонайменше 316 тисяч коментарів, головною задачею яких було легітимізувати окупацію. Кожен 3-ій коментар був унікальним, хоча ідеї просувались одні й ті самі.

Боти хвалили Путіна і демонізували Зеленського, дякували російській армії та називали терористами українських військових. А також нахвалювали окупаційну владу: раділи розвитку культури в регіоні, дякували за соціальні виплати і переконували, що влада робить все можливе для відновлення подачі електроенергії та водопостачання.

Всього ми нарахували 69 різних тем, про які писали боти. Майже всі вони були "в роботі" одночасно. Один бот впродовж дня міг працювати в десятках каналів, публікуючи коментарі на кардинально різні теми.

Наприклад, юзер під ніком nieucqanoberr впродовж 11 травня 2024 року написав 1449 коментарів у 65 каналах на 40 різних тем. Тобто в середньому залишав коментар кожні 36 секунд. Telegram зрештою заблокував його через надмірну активність.

Утім, російські боти все більше імітують людську поведінку (наприклад, постять у характерний для живих користувачів час, уникаючи активності вночі). Тож виявити їх стає важче як звичайним людям, так і модераторам платформ.

Ми перевірили, де ще залишали коментарі ті ж самі боти, що діяли в Telegram-каналах окупованих територій. З'ясувалось, що вони написали ще щонайменше 3 мільйони коментарів у Telegram України, Росії, а згодом і Молдови.

Технологія "на експорт"

Напередодні парламентських виборів у Молдові 28 вересня цього року та сама ботоферма "зайшла" в молдовський Telegram. Як наслідок – за 4 місяці до голосування кожен восьмий коментар в місцевих суспільно-політичних каналах був згенерований ботом.

Загалом орієнтовно 500 ботів написали понад 80 тисяч коментарів російською та румунською мовами. Закликали виходити на антиурядові протести та голосувати за проросійські партії, демонізували президентку Молдови Майю Санду та її політсилу.

Чому ми знаємо, що це та сама російська ботоферма? Тому що щонайменше 75% "молдовських" юзерів, яких ми ідентифікували як ботів, до цього були активні в українському та російському Telegram – коментуючи переговори Путіна з Трампом або називаючи Зеленського маріонеткою Заходу.

Технології ботоферми стали помітно розвиненішими. Якщо на тимчасово окупованих територіях унікальною була лише третина їхніх коментарів, то в Молдові штучний інтелект забезпечив 95% унікальності. Боти вже не використовували шаблонний текст зі списку меседжів, а адаптували згенеровані коментарі під кожен окремий пост, тож виглядали набагато переконливіше.

Втім, алгоритм все ще припускався помилок. Як наслідок, під дописом про дощ в одному з молдовських міст боти залишили більше як десяток коментарів про те, що Майя Санду зіпсувала погоду в країні.

Як працюють сучасні ШІ-ботоферми

Алгоритм дій для створення ботоферми доволі простий.

Росія має список тем і повідомлень, які боти мають транслювати та підсилювати: від "Зеленський – маріонетка Заходу" до "Російська влада бореться з корупцією та налагоджує життя на окупованих територіях".

Алгоритм ботоферми моніторить і аналізує інформаційний простір, наприклад, у Telegram. Щойно з'являється нова публікація, алгоритм визначає, яка тема зі списку їй найбільше релевантна. Після чого в секцію коментарів вирушають боти, які генерують адаптований під тему посту текст.

Усе це майже не потребує участі людини в процесі, за винятком нових інструкцій, виправлень багів у коді чи створення нових ботів замість видалених платформою.

Найскладніша задача – навчити алгоритм розуміти, під яким постом які меседжі просувати. Щоб під повідомленнями про відремонтовану дорогу в Маріуполі боти не почали писати про "українських нацистів", натомість генерували схвальні коментарі на адресу окупаційної влади.

Проте на величезних обсягах даних алгоритм швидко вчиться. Тож нині боти припускаються дедалі меншої кількості помилок. Часи, коли ми сміялися над "немає сечі терпіти ці пекельні борошна", відходять у минуле.

За винятком одиничних "намист ТЦК", сьогодні ботів вже майже неможливо відрізнити від людей на основі самого лише тексту їхніх коментарів. Для цього потрібні дані про активність цих ботів в інших каналах, які пересічний користувач не здобуде.

Можемо лише припускати, що той чи інший користувач платформи виглядає підозріло. Наприклад, схильний писати довгі та надмірно емоційні коментарі, в кожному з яких простежується певна теза, або часто згадує конкретних політиків, організації чи політичні партії. При цьому граматика або ведення активної дискусії з іншими коментаторами вже нічого не каже нам про те, чи стоїть за окремим юзером людина, чи ШІ.

І ми все ще не знаємо, як їм протидіяти

Ознаки подібних ботоферм є і в інших соцмережах в Україні та за кордоном. Рівень їхньої складності та ефективності варіюється від штампування однотипних коментарів під усіма можливими дописами до створення повноцінних "персонажів".

Компанія Anthropic, що розробляє штучний інтелект, виявила одну з таких інформаційних операцій, яка використовувала її мовну модель Claude, щоб створювати та керувати повноцінними онлайн-персонажами на X та Facebook. Штучний інтелект аналізував, чи відповідає кожен окремий допис "поглядам" вигаданої особи, вирішував, як реагувати на пости інших користувачів, і навіть генерував зображення для створення візуальної присутності ШІ-користувача на платформі. Згенеровані персонажі просували політичні наративи замовника.

Платформи намагаються обмежити діяльність неавтентичних профілів, але їхня мотивація доволі низька. Неідентифіковані боти збільшують кількість користувачів платформи та, відповідно, обсяги реклами, яку можна продати. Натомість розробка та впровадження алгоритмів виявлення ботів потребує додаткових витрат.

Навіть якщо всі платформи активніше виявлятимуть та видалятимуть ботів, це не вирішить проблему. Можливість зареєструватись, не підтверджуючи особу, дозволяє створювати нові акаунти сотнями одразу ж після блокування попередніх. А виявити новостворені можна лише після певної кількості дописів, які сигналізують про неавтентичність.

Фактчекінг також не вирішує проблему. Якщо бот не просуває відвертий фейк, а висловлює "власну думку", спростувати її неможливо, хай якою би штучною та імітованою вона не була.

Поширення фейків – не єдина ціль бот-кампаній. Масові дописи від ботів використовуються, щоб створити штучний консенсус в суспільстві.

Приміром, тисячі коментарів, що дискредитували партію Майї Санду напередодні виборів у Молдові, створювали у справжніх користувачів враження, що населення країни здебільшого не підтримує провладну політсилу, натомість схиляється до проросійських партій.

Складно протистояти думці більшості, навіть якщо ця більшість лише уявна.

Наразі найбільш реалістичний спосіб знизити ефективність ботів – максимально поширювати інформацію про цю технологію. Більше говорити про можливості алгоритмів і штучного інтелекту, про їхнє використання в російських інформаційних операціях. Пояснювати, чому не варто довіряти анонімним коментаторам, і радити менше заходити в коментарі там, де учасники спільноти не проходять жодної верифікації, а контент не модерують.

КОЛАЖ: АНДРІЙ КАЛІСТРАТЕНКО
LIKED THE ARTICLE?
СПОДОБАЛАСЯ СТАТТЯ?
Help us do more for you!
Допоможіть нам зробити для вас більше!
Команда «Детектора медіа» понад 20 років виконує роль watchdog'a українських медіа. Ми аналізуємо якість контенту і спонукаємо медіагравців дотримуватися професійних та етичних стандартів. Щоб інформація, яку отримуєте ви, була правдивою та повною.

До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування спільних ідей та отримувати більше ексклюзивної інформації про стан справ в українських медіа.

Мабуть, ще ніколи якісна журналістика не була такою важливою, як сьогодні.
Долучитись
Источник материала
Упоминаемые персоны
loader
loader