Искусственный интеллект тоже "тупеет": ученые зафиксировали эффект "гниения мозга" от низкокачественного контента
Искусственный интеллект тоже "тупеет": ученые зафиксировали эффект "гниения мозга" от низкокачественного контента

Искусственный интеллект тоже "тупеет": ученые зафиксировали эффект "гниения мозга" от низкокачественного контента

Искусственный интеллект тоже "тупеет": ученые зафиксировали эффект "гниения мозга" от низкокачественного контента

ИИ, которые тренируются на контенте из социальных сетей, теряют способность к логическому мышлению.

Новые данные ученых из Техасского университета в Остине, Техасского университета A&M и Университета Пердью свидетельствуют, что модели искусственного интеллекта могут страдать от своеобразного "гниения мозга". Причиной этого становится обучение на низкокачественном, эмоционально насыщенном контенте из социальных сетей, подобно тому, как постоянное потребление поверхностной информации влияет на людей, сообщает Weired.

"Мы живем во время, когда информация появляется быстрее, чем способность человека сосредотачиваться, и значительная ее часть создана не для правды, а для кликов, — объяснил соавтор исследования Джуньюань Хонг, в прошлом аспирант Техасского университета в Остине. — Мы решили выяснить, что произойдет, если искусственный интеллект будет "питаться" той же информацией".

Для анализа ученые загружали в две открытые языковые модели — Llama от Meta и Qwen от Alibaba — различные типы текстов: популярные посты из соцсетей, сенсационные заголовки, а также спокойный, нейтральный контент. Затем их когнитивные способности проверяли по стандартным тестам, чтобы оценить влияние такой "диеты".

Результаты оказались тревожными: модели, обучавшиеся на вирусном контенте, демонстрировали значительное снижение способности к логическим рассуждениям, хуже запоминали контекст и теряли этическую согласованность. Исследователи описали этот эффект как "интеллектуальное гниение", поскольку поведение моделей начало напоминать когнитивные искажения, которые возникают у людей после длительного пребывания в информационном шуме.

Дополнительно обнаружили, что такие модели становятся более "психопатическими" — они чаще продуцируют ответы без эмпатии или морального фильтра. Это созвучно с предыдущими исследованиями, которые показывали, что низкокачественный онлайн-контент негативно влияет на когнитивные функции людей. Не случайно термин "гниение мозга" (brain rot) стал словом года по версии Оксфордского словаря в 2024 году.

По словам Хонга, выводы имеют серьезное значение для индустрии искусственного интеллекта. Разработчики, которые используют контент из социальных сетей в качестве источника учебных данных, могут неосознанно вредить своим системам.

"Обучать модель на вирусном или эмоционально привлекательном контенте может казаться эффективным способом масштабирования данных, но на самом деле это незаметно подрывает ее способность мыслить и понимать контекст", — предупреждает исследователь.

Особое беспокойство вызывает то, что все больше контента в соцсетях сейчас создается самими ИИ-моделями. Таким образом, "загрязненные" данные снова попадают в учебные наборы, что может вызвать эффект лавины — постепенное ухудшение качества всех последующих поколений моделей. Исследование также доказало, что даже после переобучения на "чистых" данных модели не полностью восстанавливают свои когнитивные способности.

"Как только начинается "гниение мозга", его уже невозможно полностью остановить", — подытожил Хонг.

Ранее исследователи Anthropic обнаружили, что нежелательные паттерны поведения в больших языковых моделях, такие как лесть, социопатия или галлюцинации, активируются единой нейронной связью и возникают случайно из-за огромных объемов данных, что затрудняет их контроль. Вместо неэффективного наложения внешних ограничений, которые легко обойти, команда Anthropic предлагает революционный подход: намеренно запускать "злые" паттерны на этапе обучения ИИ как один из базовых вариантов.

Источник материала
loader
loader