/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F432%2Fcd66432d50d00badf14359e7bd293da4.png)
Штучний інтелект та інформаційна війна майбутнього
Ми щодня працюємо з АІ, використовуємо самі і бачимо, які тактики застосовує ворог. Але дивитися на питання точно потрібно ширше, ніж наша війна з Росією.
У Китаї уряд зобов’язав усі AI-компанії вбудовувати механізми "ідеологічного захисту". В результаті моделі, як ERNIE від Baidu, цензурують згадки про Тяньаньмень або Тайвань ще на рівні запиту.
Росія тестує нейромережі, здатні в реальному часі генерувати фейкові новини, імітувати голоси українських військових і створювати deepfake-відео "свідчень" для вкидів через соцмережі.
Це вже не теорія, а практика, яку ми бачимо щодня.
У США інвестують мільйони доларів у проєкти типу OpenAI, Anthropic та DARPA's AI Next.
Мета: створити системи, які ідентифікують інформаційні атаки до того, як вони почнуть ширитися.
Є багато публічних розробок, але ще більше – закритих для пабліку, які використовуються у військових цілях.
Ось вам сценарій найближчих років.
Уявімо 2027 рік. Під час гібридної ескалації РФ запускає тисячі AI-ботів, які імітують українських волонтерів, лікарів, ветеранів. Вони поширюють "відчай", "зраду", "корупцію", усе з гіперреалістичними фото й відео, створеними генеративними моделями, а також тексти, цілі проекти в соцмережах, включно з підлітковим та дитячим контентом, де РФ зараз теж активно працює.
Китай паралельно працює в Африці та Південній Азії, просуваючи антизахідні наративи через локалізовані AI-моделі, які говорять місцевими мовами й адаптовані до культури.
Щоб адаптувати модель до конкретної культури достатньо не так багато зусиль – парсинг інформації з соцмереж, постів ЛОМів, коментарів, контенту – всі ці масиви завантажуються і перетворюють модель на клон громадянина конкретної держави в інформаційному просторі, вчать мислити, вчать ментальності.
У відповідь Захід створює "цифрові лінії фронту" – ШІ-системи, які 24/7 моніторять інфопростір, виявляють бот-мережі, перекручування фактів, діпфейки. Але проблема: навіть правду вже складно відрізнити, бо і її стилізують під фейк.
Ми йдемо до світу, де не буде "однієї правди", а будуть мільйони фрагментованих реальностей. І той, хто контролює алгоритм – контролює свідомість.
BigTech компанії, що розробляють АІ, матимуть дуже велику владу. Але не тільки вони.
В Україні це питання виживання. Бо наш фронт – не лише географічний, а й інформаційний.
І, звісно ж, у використанні ШІ технологій ми маємо і будемо одними з лідерів, як технологій протидії, так і технологій, які дозволяють захищати інтереси держави в інформаційних зонах, де вони присутні.
Хочете стати колумністом LIGA.net – пишіть нам на пошту. Але спершу, будь ласка, ознайомтесь із нашими вимогами до колонок.

