Пентагон каже, що штучний інтелект пришвидшує свій «ланцюжок вбивств»
Пентагон каже, що штучний інтелект пришвидшує свій «ланцюжок вбивств»

Пентагон каже, що штучний інтелект пришвидшує свій «ланцюжок вбивств»

Провідні розробники штучного інтелекту, такі як OpenAI і Anthropic, вшивають тонку нитку в голку, щоб продавати програмне забезпечення військовим Сполучених Штатів: зробити Пентагон ефективнішим, не дозволяючи їхньому штучному інтелекту вбивати людей.

Сьогодні їхні інструменти не використовуються як зброя, але штучний інтелект дає Міністерству оборони «значну перевагу» у виявленні, відстеженні та оцінці загроз, сказала головний спеціаліст Пентагону з цифрових технологій і штучного інтелекту доктор Радха Пламб у TechCrunch. телефонна співбесіда.

«Очевидно, ми розширюємо способи, за допомогою яких ми можемо прискорити виконання ланцюга вбивств, щоб наші командири могли вчасно відреагувати, щоб захистити наші сили», — сказав Пламб.

«Ланцюжок знищення» стосується військового процесу ідентифікації, відстеження та усунення загроз із залученням складної системи датчиків, платформ і зброї. За словами Пламба, генеративний штучний інтелект виявився корисним на етапах планування та розробки стратегії ланцюжка вбивств.

Відносини між Пентагоном і розробниками ШІ є відносно новими. OpenAI, Anthropic і Meta відмовилися від своєї політики використання в 2024 році, щоб дозволити розвідувальним і оборонним службам США використовувати свої системи ШІ. Однак вони все ще не дозволяють своєму ШІ завдавати шкоди людям.

«Ми дуже чітко дали зрозуміти, для чого ми будемо, а для чого не будемо використовувати їхні технології», — сказав Пламб, коли його запитали, як Пентагон працює з постачальниками моделей ШІ.

Тим не менш, це поклало початок раунду швидкісних побачень для компаній зі штучним інтелектом і оборонних підрядників.

У листопаді Meta співпрацювала з Lockheed Martin і Booz Allen , щоб надати свої моделі штучного інтелекту Llama оборонним відомствам. Того ж місяця Anthropic об’єднався з Palantir . У грудні OpenAI уклала подібну угоду з Anduril. Більш тихо, Cohere також розгортає свої моделі з Palantir.

Оскільки генеративний штучний інтелект доводить свою корисність у Пентагоні, це може підштовхнути Кремнієву долину до послаблення політики використання штучного інтелекту та дозволити більше військових застосувань.

«Відтворення різних сценаріїв — це те, у чому може бути корисний генеративний штучний інтелект», — сказав Пламб. «Це дозволяє вам скористатися перевагами повного спектру інструментів, які є у наших командирів, а також творчо продумати різні варіанти реагування та потенційні компроміси в середовищі, де існує потенційна загроза або низка загроз, які потрібно переслідувати. »

Незрозуміло, чиї технології Пентагон використовує для цієї роботи; Використання генеративного штучного інтелекту в ланцюжку знищення (навіть на ранній стадії планування) дійсно порушує політику використання кількох провідних розробників моделей. Політика Anthropic , наприклад, забороняє використовувати її моделі для виробництва або модифікації «систем, призначених для заподіяння шкоди або втрати людського життя».

У відповідь на наші запитання Anthropic звернув увагу TechCrunch на нещодавнє інтерв’ю свого генерального директора Даріо Амодея з Financial Times , де він захищав свою військову роботу:

Позиція про те, що ми ніколи не повинні використовувати штучний інтелект у налаштуваннях оборони та розвідки, для мене не має сенсу. Позиція, згідно з якою ми повинні стати гангстерами і використовувати її, щоб виготовляти все, що завгодно — навіть зброю кінця світу — це, очевидно, таке ж божевілля. Ми намагаємося шукати золоту середину, робити все відповідально.

OpenAI, Meta та Cohere не відповіли на запит TechCrunch про коментарі.

Життя і смерть, зброя ШІ

Останніми місяцями спалахнула дискусія щодо оборонних технологій щодо того, чи дійсно слід дозволити зброї штучного інтелекту приймати рішення щодо життя та смерті. Деякі стверджують, що армія США вже має таку зброю.

Генеральний директор Anduril Палмер Лакі нещодавно зазначив на X , що армія США має довгу історію придбання та використання автономних систем зброї, таких як вежа CIWS .

«Міністерство оборони закуповує та використовує автономні системи зброї вже десятиліттями. Їх використання (і експорт!) добре зрозуміло, чітко визначено та чітко регулюється правилами, які зовсім не є добровільними», — сказав Лакі.

Але коли TechCrunch запитав, чи Пентагон купує та використовує зброю, яка є повністю автономною – такою, у якій немає людей у ​​петлі – Пламб принципово відхилив цю ідею.

«Ні, це коротка відповідь», — сказав Пламб. «Що стосується як надійності, так і етики, у нас завжди будуть залучені люди до прийняття рішення про застосування сили, і це стосується і наших систем зброї».

Слово «автономія» є дещо неоднозначним і викликало дебати в усій технологічній індустрії про те, коли автоматизовані системи, такі як кодуючі агенти штучного інтелекту, самокеровані автомобілі чи самостріляюча зброя, стануть справді незалежними.

Пламб сказав, що ідея про те, що автоматизовані системи незалежно приймають рішення щодо життя та смерті, є «занадто бінарною», а реальність меншою мірою є «науковою фантастикою». Швидше вона припустила, що використання Пентагоном систем штучного інтелекту є справді співпрацею між людьми та машинами, де старші керівники приймають активні рішення протягом усього процесу.

«Люди схильні думати про це так, ніби десь є роботи, а потім гонкулятор [вигадана автономна машина] випльовує аркуш паперу, а люди просто ставлять прапорець», — сказав Пламб. «Так не працює об’єднання людей і машин, і це не є ефективним способом використання цих типів систем ШІ».

Безпека ШІ в Пентагоні

Співробітники Силіконової долини не завжди влаштовували військові партнерства. Минулого року десятки співробітників Amazon і Google були звільнені та заарештовані після протесту проти військових контрактів їхніх компаній з Ізраїлем , хмарних угод під кодовою назвою «Project Nimbus».

Для порівняння, спільнота ШІ отримала досить стриману реакцію. Деякі дослідники штучного інтелекту, такі як Еван Хабінгер з Anthropic, кажуть, що використання штучного інтелекту в армії неминуче, і дуже важливо працювати безпосередньо з військовими, щоб переконатися, що вони роблять це правильно.

«Якщо ви серйозно ставитесь до катастрофічних ризиків, пов’язаних зі штучним інтелектом, уряд США є надзвичайно важливою особою, з якою потрібно співпрацювати, і спроба просто заблокувати уряд США від використання штучного інтелекту є нежиттєздатною стратегією», — сказав Х’юбінгер у листопадовому дописі в Інтернеті. форум LessWrong . «Недостатньо просто зосередитися на катастрофічних ризиках, ви також повинні запобігти будь-якому способу, яким уряд може зловживати вашими моделями».

Джерело матеріала
loader
loader