Ученые рассуждают о преимуществах и недостатках искусственного интеллекта на службе армии.
Глобальная роботизация и развитие ИИ влияют на все сферу жизни и, конечно, интересуют военных. О том, что произойдет, если нейронные сети разных государств столкнутся в бою, пишет Channelnewsasia.
Военные называют оружие на основе искусственного интеллекта "смертоносным" и "автономным" и, — кто тайно, кто явно, — ведут его разработки. Дроны, автономные системы огня и даже "Железный купол" Израиля – это пока еще робкие попытки внедрения ИИ, робототехники и полуавтономных боевых систем, потому как тот же "Железный купол", умеющий распознавать угрозу и самостоятельно сбивать ракеты, — это молот, но не скальпель. А в армии хотят поскорее увидеть шеренги бойцов наподобие "терминаторов" или "универсальных солдат", которые могут действовать в соответствии с боевой обстановкой моментально принимая холодные и грамотные решения. Тоже самое касается всего автономного, чем не нужно управлять даже удаленному оператору (как в случае с дронами), — говорится в статье.
Некоторые ученые находят в применении ИИ в армии свои преимущества, кроме явного, которое подразумевает сохранение жизни солдат своей собственной армии. Рональд Аркин из Технологического института Джорджии говорит, что роботизированные системы на основе ИИ будут куда "человечнее" по сравнению с людьми, когда дело коснется ликвидации противника: никакого садизма, никакой жестокости, никакой мести или безудержного гнева.
Ученые из Бристольского университета обеспокоены риском среди мирного населения и срывом переговорных процессов, если ИИ выйдет из под контроля или даст сбой. Кроме того, они отмечают большую проблему в обучении ИИ на основе алгоритма "свой-чужой", когда речь идет именно о живой силе противника. И что делать, если ИИ обучат реагировать на вражеский танк, а он примет за него гражданскую машину, проезжающую через блок-пост?
Кроме того, даже если подписать какой-либо международный меморандум о запрете внедрения ИИ в армиях мира, нет никакой гарантии, что все стороны будут соблюдать это правило. Ведь как справедливо рассуждают специалисты, договор о неприменении химического оружия, к примеру, не соблюдался СССР — он применял его в Афганистане. Или когда речь идет о таком, казалось бы, банальном и логичном стремлении запретить противопехотные мины, от которых в большинстве случаев страдают только мирные жители, то такие страны, как США, Россия и Китай не спешат подписываться под Оттавским договором, хотя 122 страны его подписали еще в 1997 году.
Возвращаясь к теме ИИ и вооружения, приверженцы этого симбиоза акцентируют внимание на праве любого государства защищать себя от агрессии любым способом и на том, что ИИ куда умнее, быстрее и беспристрастнее людей.
Впрочем, мы уже незаметно вступили в эпоху искусственного интеллекта в вооружении: дроны и ракеты, которые наводятся на цель точнее оператора, роботы-часовые и т.д. Все это уже существует и нет никаких сомнений, что и до эпохи условных "терминаторов" или "Скайнета" мы тоже доживем. Ведь политики всегда найдут лазейку в таких заумных формулировках, как "автономное оружие", "смертоносное автономное оружие" или "роботы-убийцы"…
Авторы статьи говорят, что нам с вами не нужно быть супер-экспертом в области ИИ чтобы понимать, насколько опасен такой симбиоз. Они просят, чтобы каждый, кто слышит или читает об использовании ИИ в армии задавался вопросом: насколько это оправдано и рискованно в аспекте сохранения жизней гражданского населения?
Ранее Фокус писал, что роботы-убийцы будут приняты на службу в полицию США: они будут атаковать опасных преступников.