ШІ почне атакувати соціальні мережі: яка небезпека загрожує користувачам
ШІ почне атакувати соціальні мережі: яка небезпека загрожує користувачам

ШІ почне атакувати соціальні мережі: яка небезпека загрожує користувачам

Експерти в галузі ШІ попереджають: соцмережі готуються до вторгнення так званих "роїв ШІ". Скоординовані групи автономних агентів здатні імітувати поведінку людей настільки переконливо, що зможуть поширювати неправдиві наративи в маси.

Це новий феномен в інформаційній війні, наслідки якого складно передбачити, пише Live Science з посиланням на публікацію в науковому журналі Science.

Психологія натовпу і цифрове цькування

Дослідники зазначають, що головна небезпека полягає в експлуатації психології конформізму. Люди схильні приєднуватися до думки більшості. ШІ-агенти можуть штучно створювати ілюзію масової підтримки тієї чи іншої ідеї, змушуючи реальних користувачів змінювати свою думку.

Якщо ж користувач відстоює свою позицію, "рій" ШІ-агентів може переключитися на тактику агресії. Імітуючи розлючений натовп, вони здатні скоординовано труїти людину з альтернативною точкою зору, змушуючи її покинути платформу. Співавтор дослідження Йонас Кунст з Норвезької бізнес-школи BI підкреслює, що такі системи можуть бути легко використані невідомими групами, політичними партіями або навіть державами для впливу на громадську думку.

ШІ-агенти допомагають у роботі через інтерфейс чат-ботів, але так само можуть бути використані на зло (ілюстративне фото)
Фото: unsplash.com

Чим це відрізняється від звичайних ботів

Інтернет уже переповнений ботами, на яких припадає значна частина веб-трафіку. Однак традиційні боти виконують прості, повторювані дії і їх відносно легко виявити.

"Рої" нового покоління працюють під управлінням великих мовних моделей (LLM) — тих самих технологій, що стоять за ChatGPT. Це робить їх набагато небезпечнішими. Агенти можуть запам'ятовувати контекст, мати унікальні "особистості" й адаптуватися до стилю спілкування конкретної спільноти.

Експеримент на Reddit показав, що відповіді АІ-чатботів можуть бути в 3-6 разів переконливішими, ніж доводи реальних людей. Алгоритм самодостатній, вчиться і спеціалізується на пошуку вразливостей у людському сприйнятті.

Способи захисту

Вчені поки що не можуть назвати точні терміни початку масового "вторгнення ШІ", але впевнені, що діяти потрібно на випередження. Як заходи захисту пропонується посилити аутентифікацію користувачів у соцмережах, вимагаючи доказів, що акаунт належить реальній людині. Однак це палиця з двома кінцями: деанонімізація може вдарити по людях, які живуть у країнах із жорсткою цензурою, де анонімність необхідна для безпеки.

Також пропонується створення "Обсерваторій впливу ШІ" — організацій, які відстежуватимуть аномальні патерни трафіку і попереджатимуть про скоординовані атаки до того, як вони завдадуть непоправної шкоди суспільству.

Раніше повідомлялося, що ChatGPT не зруйнував ринок праці. Штучний інтелект не призвів до "апокаліпсису робочих місць", про який попереджали деякі міжнародні організації. Навпаки, після запуску ChatGPT ринок праці в розвинених економіках демонструє стійкість, а в окремих сегментах — навіть зростання зайнятості.

Джерело матеріала
loader
loader