Росія знайшла підходи, як «отруїти» ШІ - експерт
Росія знайшла підходи, як «отруїти» ШІ - експерт

Росія знайшла підходи, як «отруїти» ШІ - експерт

Росія знайшла підходи, як «отруїти» ШІ, що становить стратегічну та довгострокову загрозу.

Про це написав експерт з інформаційно-комунікаційних інтернет-технологій Юрій Антощук у Фейсбуці, передає Укрінформ.

За словами фахівця, згенеровані штучним інтелектом "солдатські" фейки є лише найбільш видимим тактичним проявом набагато глибшої та більш загрозливої інтеграції ШІ в російську пропаганду.

«Є більш стратегічна та довгострокова ШІ-загроза, поки ще не так видима, але яку можна по аналогії спостерігати у такій же стратегії Китаю на прикладі DeepSeek (генеративної моделі ШІ Китаю). Це так зване "отруєння" ШІ», - зазначив експерт.

За його словами, DeepSeek цензурує свої відповіді щодо КПК, Тайваню, Тибету, далай-лами тощо. Але це китайська компанія і модель ШІ, і влада має прямий вплив на неї.

Натомість у таких моделях, як GPT, Gemini тощо, напряму вплинути не виходить. І Росія знайшла підходи, як «отруїти» ШІ, щоб у довгостроковій перспективі мати змогу впливати на відповіді цих мовних моделей користувачам, зазначає експерт.

Зокрема, пояснює він, Росія створює досконалі візуальні копії провідних західних медіа (наприклад, Fox News, The Washington Post, Die Welt, Le Point), міжнародних організацій (наприклад, офіційного сайту NATO) та сотні інших «новинних» порталів, на яких публікуються фальшиві статті з антиукраїнськими та прокремлівськими наративами (наприклад, про «провал» допомоги Україні або «розкол» у НАТО тощо). Потім ці статті масово поширюються через мережі фейкових акаунтів у соціальних мережах та за допомогою платної реклами. Йдеться про генерування величезних обсягів російського контенту.

"Великі мовні моделі ШІ "навчаються" у тому числі на відкритих джерелах, статтях, новинах тощо. І от Росія наповнює інтернет мільйонами статей, які автоматизовані парсери ШІ-компаній (як-от Google, OpenAI) зчитують і вважають легітимними джерелами для навчання своїх моделей. Як результат - майбутні покоління ШІ-чат-ботів (ChatGPT, Gemini, Grok) будуть "природно" відтворювати російські наративи про війну в Україні (наприклад, про "денацифікацію" чи "громадянську війну"), оскільки їхня "база знань" була фундаментально скомпрометована", - констатує експерт.

Він додав, що вже є приклади, як Grok поширював російську пропаганду, тож ця стратегія дає свої плоди.

«Тому, коли ми чуємо або безпосередньо бачимо, використовуючи різні ШІ, що їхні відповіді стають менш якісними, це ще не все, чого нам слід очікувати. Не варто забувати, що вже зараз близько 50% (якщо не більше) контенту в інтернеті створюється не людьми», - наголосив Антощук.

Як повідомляв Укрінформ, раніше Антощук писав, що мережі поширюють згенеровані штучним інтелектом (ШІ) фейки, де начебто «українські військові» кажуть про «катастрофічну ситуацію у Покровську» чи «повне оточення Куп'янська».

Теги по теме
Россия
Источник материала
loader
loader