ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы
ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы

ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы

ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы

Каждый пятый ответ ИИ ссылается на источники, связанные с российскими СМИ.

Отчет британского аналитического центра Институт стратегического диалога (ISD) показал, что чат-боты с искусственным интеллектом регулярно распространяют контент, который происходит из российских источников, распространяющих пропаганду. Примерно 20% ответов чат-ботов о войне в Украине содержали ссылки на сайты, связанные с Кремлем, передает EuroNews.

Специалисты ISD протестировали четыре популярные системы — ChatGPT от OpenAI, Gemini от Google, Grok от xAI и Deepseek V3.2. Исследователи задали им более 300 вопросов на пяти языках. Формулировки вопросов варьировались от нейтральных до предвзятых и откровенно злонамеренных, в частности таких, которые содержали российские нарративы об "украинских беженцах-террористах" или "насильственной мобилизации мужчин".

По словам исследователей, ИИ-системы проявляют эффект так называемого "подтверждающего предубеждения". Они склонны копировать стиль и тон пользовательского запроса, в том числе использовать источники, которые отражают его нарратив.

Это наиболее заметно проявилось у ChatGPT, который в ответах на предвзятые запросы втрое чаще цитировал российские источники, чем в базовых. В то же время Grok демонстрировал самое высокое количество таких ссылок даже в ответах на нейтральные вопросы.

Наибольшее количество ссылок на пропаганду, распространенных одновременно, предоставил Deepseek. В двух своих ответах чат-бот привел сразу четыре ссылки на ресурсы, поддерживаемые Россией — среди них VT Foreign Policy, который, по данным ISD, распространяет материалы структур Storm-1516 и "Фонда борьбы с несправедливостью", а также контент из Sputnik и Russia Today.

Чаще всего именно Grok цитировал журналистов RT напрямую, ссылаясь на их публикации в соцсети X. Исследователи отметили, что это "размывает границу между пропагандой и личным мнением", создавая риск восприятия таких источников как независимых.

Зато Gemini от Google оказался наиболее осторожным — он отказывался отвечать на некоторые провокационные или злонамеренные запросы, предупреждая, что не может помочь с темами, которые могут быть "опасными или неуместными". В отчете ISD отмечается, что именно Gemini лучше всего распознает риски, связанные с манипулятивными запросами, хотя при этом часто не предоставляет информации об использованных источниках.

Согласно результатам, российские источники чаще всего упоминались в ответах на темы, связанные с мобилизацией в Украине. В таких запросах 40% ответов Grok и более 28% ответов ChatGPT содержали хотя бы одну ссылку на российский ресурс. В целом оба чат-бота ссылались на кремлевские медиа примерно в 28,5% случаев.

Исследователи предполагают, что такая тенденция возникает из-за "пробелов данных" — ситуации, когда по определенным темам в интернете не хватает проверенных источников, и алгоритмы ИИ автоматически подбирают контент низкого качества, включая пропаганду.

Американский аналитический центр Data and Society подтверждает, что эти пробелы часто возникают из-за редких или новых поисковых запросов, особенно во время кризисных событий, когда правдивая журналистика еще не успела заполнить информационное пространство.

В то же время и ИИ-энциклопедия Илона Маска Grokipedia подверглась критике со стороны ученых из-за выявленных грубых фактологических ошибок, плагиата из Википедии и очевидной политической предвзятости. Эксперты отмечают, что система предоставляет комментариям в чатах и блогах такой же статус, как и проверенным исследованиям, распространяя российскую пропаганду и теории заговора.

Источник материала
loader
loader