/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F4%2Ff29802030a92bff6297534230f401a0d.jpg)
Армия комментаторов. Как ИИ превратил российские ботофермы в оружие влияния
2024 год стал первым в истории интернета, когда активность ботов превысила человеческую.
Об этом говорится в Bad Bot Report, ежегодном отчете компании Imperva, которая анализирует автоматизированный трафик в сети.
Все благодаря искусственному интеллекту, который ощутимо увеличил скорость и масштабируемость информационных операций.
Российские ботофермы, годами пытающиеся повлиять на общественное мнение в Украине, благодаря ИИ превратились в самостоятельные экосистемы автоматизированных комментаторов.
Они способны генерировать сотни тысяч комментариев ежемесячно, работая круглосуточно без участия человека.
Боты-комментаторы в украинских соцсетях появлялись со времен Революции достоинства.
Тогда "Агентство интернет-исследований" Евгения Пригожина, известное как "ольгинские тролли", нанимало сотни россиян, которые за деньги переписывали новости или публиковали комментарии по спущенной сверху методичке.
10 лет назад журналист Богдан Кутепов написал колонку с инструкцией, как распознать такого бота.
Например, пообщаться с ним или загуглить аватарку.
Сегодня эта инструкция необратимо устарела.
Аватарка скорее всего будет сгенерирована искусственным интеллектом, а дискутировать бот будет лучше многих людей.
Ведь сейчас наемных работников в петербургских офисах заменил генеративный искусственный интеллект, который стоит дешевле, а работу выполняет качественнее.
Он работает без перерыва на сон или выходные и дает заказчику более широкие возможности масштабировать кампанию влияния, выходя за пределы привычных регионов и языков.
Эта технология уже активно используется для того, чтобы влиять на общественное мнение и формировать ложный общественный консенсус.
Боты и Telegram-оккупация.
Летом этого года исследовательские команды Open.
Minds и DFRLab, специализирующиеся на анализе дезинформации и онлайн-манипуляций, обнаружили и исследовали более 3600 ботов в Telegram-каналах оккупированных территорий Украины.
За менее чем полтора года они написали не менее 316 тысяч комментариев, главной задачей которых было легитимизировать оккупацию.
Каждый 3-ий комментарий был уникальным, хотя идеи продвигались одни и те же.
Боты хвалили Путина и демонизировали Зеленского, благодарили российскую армию и называли террористами украинских военных.
А также нахваливали оккупационную власть: радовались развитию культуры в регионе, благодарили за социальные выплаты и убеждали, что власть делает все возможное для восстановления подачи электроэнергии и водоснабжения.
Всего мы насчитали 69 различных тем, о которых писали боты.
Почти все они были "в работе" одновременно.
Один бот в течение дня мог работать в десятках каналов, публикуя комментарии на кардинально разные темы.
Например, юзер под ником nieucqanoberr в течение 11 мая 2024 года написал 1449 комментариев в 65 каналах на 40 различных тем.
То есть в среднем оставлял комментарий каждые 36 секунд.
Telegram в конце концов заблокировал его из-за чрезмерной активности.
Впрочем, российские боты все больше имитируют человеческое поведение (например, постят в характерное для живых пользователей время, избегая активности ночью).
Поэтому выявить их становится труднее как обычным людям, так и модераторам платформ.
Мы проверили, где еще оставляли комментарии те же боты, которые действовали в Telegram-каналах оккупированных территорий.
Выяснилось, что они написали еще как минимум 3 миллиона комментариев в Telegram Украины, России, а затем и Молдовы.
Технология "на экспорт".
Накануне парламентских выборов в Молдове 28 сентября этого года та же ботоферма "зашла" в молдавский Telegram.
В результате – за 4 месяца до голосования каждый восьмой комментарий в местных общественно-политических каналах был сгенерирован ботом.
В целом около 500 ботов написали более 80 тысяч комментариев на русском и румынском языках.
Призывали выходить на антиправительственные протесты и голосовать за пророссийские партии, демонизировали президента Молдовы Майю Санду и ее политсилу.
Почему мы знаем, что это та самая российская ботоферма? Потому что по меньшей мере 75% "молдавских" юзеров, которых мы идентифицировали как ботов, до этого были активны в украинском и российском Telegram – комментируя переговоры Путина с Трампом, или называя Зеленского марионеткой Запада.
Технологии ботофермы стали заметно более развитыми.
Если на временно оккупированных территориях уникальной была лишь треть их комментариев, то в Молдове искусственный интеллект обеспечил 95% уникальности.
Боты уже не использовали шаблонный текст из списка месседжей, а адаптировали сгенерированные комментарии под каждый отдельный пост, таким образом имея гораздо более убедительный вид.
Впрочем, алгоритм все еще допускал ошибки.
Как следствие, под сообщением о дожде в одном из молдавских городов боты оставили более десятка комментариев о том, что Майя Санду испортила погоду в стране.
Как работают современные ИИ-ботофермы.
Алгоритм действий для создания ботофермы довольно прост.
У Россиии есть список тем и сообщений, которые боты должны транслировать и усиливать: от "Зеленский – марионетка Запада" до "Российская власть борется с коррупцией и налаживает жизнь на оккупированных территориях".
Алгоритм ботофермы мониторит и анализирует информационное пространство, например, в Telegram.
Как только появляется новая публикация, алгоритм определяет, какая тема из списка ей наиболее релевантна.
После чего в секцию комментариев отправляются боты, которые генерируют адаптированный под тему поста текст.
Все это почти не требует участия человека в процессе, за исключением новых инструкций, исправлений багов в коде или создания новых ботов вместо удаленных платформой.
Самая сложная задача – научить алгоритм понимать, под каким постом какие месседжи продвигать.
Чтобы под сообщениями об отремонтированной дороге в Мариуполе боты не начали писать об "украинских нацистах", а генерировали одобрительные комментарии в адрес оккупационных властей.
Но на огромных объемах данных алгоритм быстро учится.
Сейчас боты допускают все меньше ошибок.
Времена, когда мы смеялись над "нема сечі терпіти ці пекельні борошна", уходят в прошлое.
За исключением единичных "намист ТЦК" сегодня ботов уже почти невозможно отличить от людей на основе одного лишь текста их комментариев.
Для этого нужны данные об активности этих ботов в других каналах, которые рядовой пользователь не получит.
Можем лишь предполагать, что тот или иной пользователь платформы выглядит подозрительно.
Например, склонен писать длинные и чрезмерно эмоциональные комментарии, в каждом из которых прослеживается определенный тезис, или часто упоминает конкретных политиков, организации или политические партии.
При этом грамматика или ведение активной дискуссии с другими комментаторами уже ничего не говорит нам о том, стоит ли за отдельным юзером человек или ИИ.
И мы все еще не знаем, как им противодействовать.
Признаки подобных ботоферм есть и в других соцсетях в Украине и за рубежом.
Уровень их сложности и эффективности варьируется от штамповки однотипных комментариев под всеми возможными сообщениями до создания полноценных "персонажей".
Компания Anthropic, разрабатывающая искусственный интеллект, обнаружила одну из таких информационных операций, которая использовала ее языковую модель Claude, чтобы создавать и управлять полноценными онлайн-персонажами на X и Facebook.
Искусственный интеллект анализировал, соответствует ли каждое отдельное сообщение "взглядам" вымышленного лица, решал, как реагировать на посты других пользователей, и даже генерировал изображения для создания визуального присутствия ИИ-пользователя на платформе.
Сгенерированные персонажи продвигали политические нарративы заказчика.
Платформы пытаются ограничить деятельность неаутентичных профилей, но их мотивация довольно низкая.
Неидентифицированные боты увеличивают количество пользователей платформы и, соответственно, объемы рекламы, которую можно продать.
Зато разработка и внедрение алгоритмов выявления ботов требует дополнительных затрат.
Даже если все платформы будут активнее выявлять и удалять ботов, это не решит проблему.
Возможность зарегистрироваться, не подтверждая личность, позволяет создавать новые аккаунты сотнями сразу же после блокировки предыдущих.
А выявить едва созданные можно только после определенного количества сообщений, которые сигнализируют о неаутентичности.
Фактчекинг также не решает проблему.
Если бот не продвигает откровенный фейк, а высказывает "собственное мнение" – опровергнуть его невозможно, каким бы искусственным и имитированным оно ни было.
Распространение фейков – не единственная цель бот-кампаний.
Массовые сообщения от ботов используются, чтобы создать искусственный консенсус в обществе.
Например, тысячи комментариев, дискредитировавших партию Майи Санду накануне выборов в Молдове, создавали у настоящих пользователей впечатление, что население страны в основном не поддерживает провластную политсилу, зато склоняется к пророссийским партиям.
Сложно противостоять мнению большинства, даже если это большинство лишь мнимое.
Сейчас наиболее реалистичный способ снизить эффективность ботов – максимально распространять информацию об этой технологии.
Больше говорить о возможностях алгоритмов и искусственного интеллекта, об их использовании в российских информационных операциях.
Объяснять, почему не стоит доверять анонимным комментаторам и советовать меньше заходить в комментарии там, где участники сообщества не проходят никакой верификации, а контент не модерируется.
Юлия Дукач, УП.

