Вчені попередили, що штучний інтелект зможе маніпулювати цілими суспільствами у близькому майбутньому
Вчені попередили, що штучний інтелект зможе маніпулювати цілими суспільствами у близькому майбутньому

Вчені попередили, що штучний інтелект зможе маніпулювати цілими суспільствами у близькому майбутньому

Штучний інтелект може змінювати хід демократичних процесів, не з’являючись на мітингах чи виборах. У новій статті в журналі Science дослідники попереджають про ризик появи мереж з численними AI-керованими персонажами, які видають себе за звичайних користувачів і непомітно впливають на онлайн-дискусії.

На відміну від традиційних бот-мереж, нові системи працюють у злагоджених групах, які постійно взаємодіють, відстежують ефективність повідомлень і зберігають узгодженість наративу, навіть якщо окремі акаунти зникають. Застосування великих мовних моделей у поєднанні з мультиагентними системами дозволяє одній особі керувати тисячами штучних «голосів», що виглядають як автентичні представники локальних спільнот.

Кожен такий персонаж може адаптувати стиль мовлення, враховувати соціальні норми та швидко реагувати на критику. Це ускладнює виявлення маніпуляцій і дозволяє формувати ілюзію масової підтримки певної ідеї. За словами професора з Університету Британської Колумбії Кевіна Лейтон-Брауна, вже сьогодні існують приклади впливу deepfake-відео та штучно створених новин на виборчі процеси в США, Індії, Індонезії та Тайвані.

Окремо вчені наголошують на ризику інформаційного «засмічення»: деякі мережі поширюють великі обсяги низькоякісного контенту, щоб спотворити навчальні дані для майбутніх AI-систем. Це може мати довгостроковий вплив на якість та об'єктивність штучного інтелекту.

Дослідники припускають, що найближчі вибори можуть стати першим реальним випробуванням таких технологій. Зниження довіри до маловідомих голосів у соцмережах може посилити вплив публічних осіб, але ускладнити донесення позицій знизу. Це порушу питання, чи зможуть системи контролю вчасно розпізнати та зупинити координовані кампанії впливу.

Джерело матеріала
loader
loader