ИИ начнет атаковать социальные сети: какая опасность грозит пользователям
ИИ начнет атаковать социальные сети: какая опасность грозит пользователям

ИИ начнет атаковать социальные сети: какая опасность грозит пользователям

Эксперты в области ИИ предупреждают: соцсети готовятся к вторжению так называемых "роев ИИ". Скоординированные группы автономных агентов способны имитировать поведение людей столь убедительно, что смогут распространять ложные нарративы в массы.

Это новый феномен в информационной войне, последствия которого сложно предсказать, пишет Live Science со ссылкой на публикацию в научном журнале Science.

Психология толпы и цифровая травля

Исследователи отмечают, что главная опасность состоит в эксплуатации психологии конформизма. Люди склонны присоединяться к мнению большинства. ИИ-агенты могут искусственно создавать иллюзию массовой поддержки той или иной идеи, заставляя реальных пользователей менять свое мнение.

Если же пользователь отстаивает свою позицию, "рой" ИИ-агентов может переключиться на тактику агрессии. Имитируя разъяренную толпу, они способны скоординированно травить человека с альтернативной точкой зрения, вынуждая его покинуть платформу. Соавтор исследования Йонас Кунст из Норвежской бизнес-школы BI подчеркивает, что такие системы могут быть легко использованы неизвестными группами, политическими партиями или даже государствами для влияние на общественное мнение.

ИИ-агенты помогают в работе через интерфейс чат-ботов, но так же могут быть использованы во зло (иллюстративное фото)
Фото: unsplash.com

Чем это отличается от обычных ботов

Интернет уже переполнен ботами, на которых приходится значительная часть веб-трафика. Однако традиционные боты выполняют простые, повторяющиеся действия и их относительно легко обнаружить.

"Рои" нового поколения работают под управлением больших языковых моделей (LLM) — тех же технологий, что стоят за ChatGPT. Это делает их намного опаснее. Агенты могут запоминать контекст, иметь уникальные "личности" и адаптироваться к стилю общения конкретного сообщества.

Эксперимент на Reddit показал, что ответы ИИ-чатботов могут быть в 3–6 раз убедительнее, чем доводы реальных людей. Алгоритм самодостаточен, учится и специализируется на поиске уязвимостей в человеческом восприятии.

Способы защиты

Ученые пока не могут назвать точные сроки начала массового "вторжения ИИ", но уверены, что действовать нужно на упреждение. В качестве мер защиты предлагается усилить аутентификацию пользователей в соцсетях, требуя доказательств, что аккаунт принадлежит реальному человеку. Однако это палка о двух концах: деанонимизация может ударить по людям, живущим в странах с жесткой цензурой, где анонимность необходима для безопасности.

Также предлагается создание "Обсерваторий влияния ИИ" — организаций, которые будут отслеживать аномальные паттерны трафика и предупреждать о скоординированных атаках до того, как они нанесут непоправимый вред обществу.

Теги по теме
Соцсети
Источник материала
loader