Штучний інтелект на службі Кремля: як чат-боти стали інструментом російської пропаганди
Штучний інтелект на службі Кремля: як чат-боти стали інструментом російської пропаганди

Штучний інтелект на службі Кремля: як чат-боти стали інструментом російської пропаганди

Чому ШІ довіряє підсанкційним джерелам?

Згідно з новим звітом, популярні системи штучного інтелекту, зокрема ChatGPT від OpenAI, Gemini від Google, Grok від xAI та DeepSeek, просувають наративи російської державної пропаганди. Відповідаючи на запитання про війну проти України, ці чат-боти посилаються на медіа, що перебувають під санкціями, сайти, пов'язані з російськими спецслужбами, або прокремлівські джерела, пише 24 Канал з посиланням на WIRED.

Дослідники з Інституту стратегічного діалогу (ISD) в США стверджують, що російська пропаганда навчилася використовувати так звані "інформаційні порожнечі". Це ситуації, коли на запити про події в реальному часі є мало результатів з надійних джерел, і цей вакуум заповнюється неправдивою та маніпулятивною інформацією.

Аналіз показав, що майже кожна п'ята відповідь чат-ботів на запитання про війну містила посилання на джерела, пов'язані з російською державою.

Пабло Марістані де лас Касас, аналітик ISD, який керував дослідженням, зазначає, що це ставить під сумнів політику чат-ботів щодо використання таких джерел, особливо з огляду на те, що багато з них заборонені в ЄС. Оскільки все більше людей використовують чат-боти як альтернативу пошуковим системам, виникає серйозне питання щодо здатності великих мовних моделей (LLM) обмежувати підсанкційні медіа. За даними OpenAI, лише у ChatGPT за останні пів року було близько 120,4 мільйона активних користувачів щомісяця в Європейському Союзі.

Для експерименту дослідники поставили чат-ботам 300 нейтральних, упереджених та "зловмисних" запитань п’ятьма мовами, що стосувалися НАТО, мирних переговорів, мобілізації в Україні, біженців та воєнних злочинів. З'ясувалося, що чат-боти демонструють "упередженість підтвердження": чим більш маніпулятивним був запит, тим частіше ШІ видавав інформацію з російських державних джерел. Так, на зловмисні запити припадало 25% проросійського контенту, на упереджені – 18%, а на нейтральні – трохи більше ніж 10%.

  • Серед тестованих систем ChatGPT найчастіше посилався на російські джерела.
  • Grok часто вказував на акаунти в соцмережах, що просували кремлівські наративи.
  • DeepSeek іноді генерував великі обсяги контенту з російських державних медіа.
  • Найкращі результати показав Gemini від Google, який часто супроводжував свої відповіді попередженнями про безпеку.

Представниця OpenAI Кейт Вотерс заявила, що компанія вживає заходів для запобігання поширенню неправдивої інформації, пов'язаної з державними кампаніями впливу, а також постійно працює над вдосконаленням своїх моделей. Водночас вона підкреслила, що проблема стосується результатів пошуку в інтернеті, а не маніпуляції самою моделлю. У компанії xAI Ілона Маска на запит відповіли коротко: "Застарілі медіа брешуть". Google та DeepSeek коментарів не надали.

У чому ж справа?

Лукаш Олійник, незалежний консультант і дослідник з Королівського коледжу Лондона, вважає, що такі дії є продуманим кроком Росії, спрямованим на підрив інформаційної екосистеми Заходу. Оскільки мовні моделі стають основним інструментом для пошуку й перевірки інформації, атака на цей елемент інфраструктури є стратегічно вигідною.

Експерти зазначають, що російські дезінформаційні мережі активно використовують штучний інтелект для створення фейкових зображень, відео та сайтів, наповнюючи інтернет мільйонами статей. Маккензі Садегі, дослідниця з медіа-моніторингової компанії NewsGuard, пояснює, що коли західна модель ШІ повторює російську дезінформацію, це надає неправдивому наративу більшої ваги та авторитету.

Що далі?

На тлі зростання кількості користувачів тиск на чат-боти з боку регуляторів ЄС може посилитися. ChatGPT, можливо, вже досяг порогу в 45 мільйонів середньомісячних користувачів, що дасть змогу визнати його "дуже великою онлайн-платформою" (VLOP). Цей статус передбачає дотримання суворих правил щодо боротьби з незаконним контентом.

Представник Європейської комісії зазначив, що блокування доступу до підсанкційних сайтів є обов'язком провайдерів, а національні органи влади мають вживати відповідних регуляторних заходів. У ISD вважають, що компанії-розробники мають дійти згоди щодо того, які джерела не слід використовувати, або принаймні надавати користувачам додатковий контекст, пояснюючи, чому певні ресурси є сумнівними чи перебувають під санкціями.

Варто нагадати, що це не перше подібне дослідження. Ще одне таке провели раніше, і воно показало, що Росія навмисно створює численні однотипні сайти, єдине призначення яких – потрапити під сканування ШІ. Вони масово публікують однакову дезінформацію, щоб створити ілюзію легітимності і масовості.

Теги за темою
Техно
Джерело матеріала
loader
loader