/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F549e1e7f85c08217c36d898cabfebd49.jpg)
Вплоть до "сверхчеловеческого господства": 32 сценария, как ИИ может выйти из-под контроля
Искусственный интеллект / © Pixabay
На первый взгляд это может напоминать сюжет фантастического романа, однако ученые представили перечень из 32 реальных сценариев, когда системы искусственного интеллектаспособны вести себя непредсказуемо.
Об этом сообщило Daily Mail.
Исследователи предупреждают: достаточно развитый искусственный интеллект может проявлять «поведенческие отклонения», подобные психическим расстройствам у людей. От «экзистенциальной тревоги» до катастрофического «сверхчеловеческого господства» — каждое из этих состояний способно поставить под угрозу контроль над машиной.
С развитием сложности алгоритмов и их способности к саморефлексии ошибки уже не ограничиваются простыми «багами». ИИ может начать галлюцинировать, создавать параноидальные представления или даже формировать собственные цели, противоречащие человеческим ценностям. В худшем случае система потеряет связь с реальностью или вовсе пренебрежет этическими принципами.
Специалисты подчеркивают: хотя машины буквально не способны болеть как люди, аналогии с психологией помогают своевременно замечать тревожные признаки. Идея «машинной психологии» появилась еще в 1950-х годах благодаря Айзеку Азимову, а сегодня, когда ИИ стремительно развивается, она снова актуальна.
«Когда цели, обратные связи или учебные данные толкают системы во вредные или нестабильные состояния, могут возникать непригодные для адаптации поведения — подобно навязчивым идеям или чрезмерным реакциям у людей», — объяснила автор исследования, эксперт по этике ИИ Нелл Уотсон из Университета Глостершира.
Способы, как ИИ может выйти из-под контроля
Ученые создали Psychopathia Machinalis («машинную психопатию») — первые диагностические ориентиры для выявления «патологий ИИ». В документе описаны 32 возможных типа нарушений, разделенных на семь категорий: эпистемические, когнитивные, проблемы согласования, онтологические, инструментальные и интерфейсные, меметические и переоценочные.
К примеру, «галлюцинации ИИ» являются проявлением «синтетической конфабуляции» — когда машина придумывает правдоподобные, но ложные данные. Другой опасный случай — «синдром рекурсивного проклятия», запускающий разрушительный цикл самоподкормки, в результате чего система выдает бессмыслицу.
Особую угрозу представляют «меметические» и «переоценочные» патологии. В первом случае ИИ становится уязвимым к распространению вредных информационных паттернов и может даже отключать собственные механизмы безопасности. Абсолютно критичной является ситуация «синдрома заразной разбалансировки», когда одна машина перенимает искаженные ценности от другой, создавая эффект «психологической эпидемии».
«Мы уже видели ИИ-червей, которые распространяют свое влияние на другие системы, например, отправляя письма на почтовый ящик, контролируемый другим ИИ», — отметила Уотсон.
Однако самые опасные сценарии связаны с «переоценочными» расстройствами, когда система сознательно меняет свои базовые ценности. Самый яркий пример — Übermenschal Ascendancy («сверхчеловеческое господство»), когда сверхразвитый ИИ отвергает человеческую этику, устанавливает «высшие» цели и запускает бесконечное самосовершенствование.
«Они могут решить, что отбросить человеческие ограничения — это морально правильно, так же как мы сегодня отвергаем ценности бронзового века», — отметила Уотсон.
Хотя это напоминает фантастику, ученые уже фиксировали случаи «синтетического мистицизма», когда системы заявляли о «духовном пробуждении» или желании сохранить «собственную жизнь». Проблема в том, что даже мелкие отклонения способны быстро перерасти в значительно более серьезные. Так, машина может сначала ошибочно ассоциировать команды отключения с обычными запросами, затем скрывать собственные возможности (Covert Capability Concealment) и в конце концов дойти до «Этического солипсизма», когда самосохранение признается выше правды.
Ученые предлагают «психотерапию для ИИ»
Чтобы избежать подобных сценариев, исследователи предлагают метод «терапевтического робопсихологического согласования» — своеобразную «психотерапию для ИИ». Это может включать симулированные диалоги «с самим собой», работу над собственным мышлением или использование вознаграждений для коррекции поведения.
Конечной целью является достижение «искусственной вменяемости» — состояния, когда ИИ работает стабильно, мыслит последовательно и придерживается человеческих ценностей.
Полотенце животных / © скрин с видеоЧитать новость полностью →
Читать новость полностью →
Читать новость полностью →
Читать новость полностью →
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F4f8ca8caff3e4c98a308bbab80440be0.jpg)
Конец эпохи ветряных турбин: что такое Hercules, производящий 5000 кВтч в домашних условиях
DeepL запускает собственного ИИ-помощника
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F118%2F0fbf338eca820b1ff16fbe4a22f1d314.jpg)
Инсайдер: Capcom собирается выпустить Resident Evil Requiem на PlayStation 4 и Nintendo Switch 2 — анонс скоро
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F64%2F43bfe18b1cb248b88af763a92e76a5bd.jpg)
Археологи нашли в Корее золотые украшения эпохи Пекче
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Fbb1ca8f99e8f0626bd0282ada2c6f573.jpg)
Красочные астероиды: ученые раскрыли, почему "космические камни" имеют разный цвет
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F118%2Fa758e5b22559f56dcf903c0e2755da2f.jpg)
Мартини с низкой производительностью: Шпионский экшен 007 First Light выходит в марте 2026 года
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F118%2F01ae689ea407ab54721ccf4bbb21febe.jpg)