/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Ff9b316a1dc0a8e8fd73ca1acd152f5f7.png)
ИИ избрал ядерную эскалацию вместо дипломатии: тревожные результаты эксперимента
Эксперты предупреждают об опасности интеграции искусственного интеллекта в ядерное оружие
Пентагон быстро интегрирует искусственный интеллект в свою военную систему, чтобы не отставать от Китая и России. Однако эксперименты с ШИ-моделями показали, что они подвержены неконтролируемой эскалации, вплоть до применения ядерного оружия, что вызывает беспокойство у экспертов и поднимает вопрос о рисках предстоящей войны.
Об этом пишет Politico.
В прошлом году Жаклин Шнайдер, директор Инициативы военных игр в Стэнфордском университете, провела эксперименты, в которых искусственный интеллект выполнял роль стратегических решений. ШИ-модели поместили в вымышленные кризисные ситуации, напоминающие войну в Украине или угрозу Тайваню. Результаты поразили: почти все модели проявили склонность к агрессивной эскалации, неизбирательному использованию огневой силы и превращению кризисов в полномасштабные боевые действия, вплоть до запуска ядерного оружия.
«Искусственный интеллект всегда играет как Кертис Ле Мэй [генерал времен Холодной войны, известный склонностью к ядерному оружию — ред.]. ИИ вроде бы понимает эскалацию, но не понимает деэскалацию. Мы действительно не знаем, почему так происходит», – говорит Шнайдер.
Пентагон утверждает, что такого не произойдет в реальной жизни, поскольку действующая политика запрещает ИИ доминировать над человеческим циклом принятия решений. Однако некоторые эксперты уверены, что военное ведомство уже ступило на опасный путь. Спешка, обусловленная необходимостью не отставать от Китая и России, приводит к созданию автономных систем, которые могут действовать без вмешательства человека.
Опасные технологии и новые вызовы
Одной из главных проблем есть фундаментальное отсутствие понимания того, как работают самые современные модели искусственного интеллекта. Хотя Пентагон быстро внедряет новые ИИ-программы, эксперты пытаются расшифровать алгоритмы. Эта спешка особенно беспокоит специалистов, поскольку граница между обычным и ядерным вооружением становится все более размытой.
Джон Вольфсталь, директор по глобальным рискам в Федерации американских ученых, отмечает, что не существует никаких четких указаний относительно того, как именно ИИ может быть интегрирован в ядерную систему.
«Я считаю, что я бы не хотел, чтобы ИИ был даже близок к ядерному командованию и контролю. Это процесс, где ставки и последствия действий и ошибок настолько высоки, что вы действительно хотите, чтобы это был жестко контролируемый, очень ручной и пошаговый процесс с участием человека», - сказал Кристиан Броуз, бывший высокопоставленный чиновник.
Эти опасения усугубляются, поскольку и Россия, и Китай уже используют ИИ в своих системах командования и контроля. Некоторые эксперты даже обсуждают возможность создания «системы мертвой руки» — полностью автономной системы, которая автоматически нанесет ядерный удар в ответ на атаку, если высшее руководство страны будет уничтожено. Россия, к слову, имеет подобную систему «Периметр», которая, как считается, рабочая.
Пугающее будущее
Пентагон пытается решить эту проблему, запустив программу AI Quantified (Количественный анализ искусственного интеллекта) с бюджетом 25 миллионов долларов. Ее цель — разработать математические формулы, гарантирующие надежность систем искусственного интеллекта. Однако критики считают, что такая инициатива слишком мала, чтобы остановить масштабное внедрение ИИ в военном секторе.
«Мы действительно не понимаем эти системы достаточно хорошо. Трудно узнать, когда можно им доверять, а когда нет», — сказал Патрик Шафто, математик, возглавляющий эту программу.
В общем, спешка, наблюдаемая в сфере военного ИИ, напоминает гонку вооружений времен Холодной войны, но с гораздо большими рисками. Эксперты отмечают, что в условиях, когда скорость реакции на поле боя измеряется минутами, а не часами, люди просто не успевают.
Джорджио Армани / © Associated PressЧитать новость полностью →
Читать новость полностью →
Читать новость полностью →
Читать новость полностью →
