Британський стартап штучного інтелекту, який співпрацює з урядом, розробляє технологію для військових дронів
Британський стартап штучного інтелекту, який співпрацює з урядом, розробляє технологію для військових дронів

Британський стартап штучного інтелекту, який співпрацює з урядом, розробляє технологію для військових дронів

Компанія, яка тісно співпрацювала з урядом Великої Британії щодо безпеки штучного інтелекту, NHS та освіти, також розробляє ШІ для військових дронів.

Консалтингова компанія Faculty AI має «досвід розробки та розгортання моделей штучного інтелекту на БПЛА» або безпілотних літальних апаратах, згідно з компанією-партнером оборонної промисловості.

Факультет став однією з найактивніших компаній, що продають послуги ШІ у Великобританії. На відміну від OpenAI, Deepmind або Anthropic , компанія сама не розробляє моделі, а зосереджується на перепродажі моделей, зокрема з OpenAI, і консультаціях щодо їх використання в уряді та промисловості.

Факультет отримав особливу популярність у Великій Британії після роботи над аналізом даних для кампанії Vote Leave під керівництвом Домініка Каммінгса, який продовжував працювати радником Бориса Джонсона. Пізніше уряд Джонсона дав роботу факультету під час пандемії та включив його виконавчого директора Марка Уорнера до участі в засіданнях наукової консультативної групи.

Відтоді компанія, яка офіційно називається Faculty Science, проводила тестування моделей ШІ для урядового Інституту безпеки штучного інтелекту (AISI) Великобританії, створеного у 2023 році під керівництвом колишнього прем’єр-міністра Ріші Сунака.

Уряди в усьому світі намагаються зрозуміти наслідки штучного інтелекту для безпеки після того, як швидке вдосконалення генеративного ШІ викликало хвилю ажіотажу навколо його можливостей.

Компанії, що займаються виробництвом зброї, прагнуть потенційно використовувати штучний інтелект на безпілотниках, починаючи від «вірних ведучих», які могли б літати поруч з винищувачами, і закінчуючи бездіяльними боєприпасами, які вже здатні чекати появи цілей, перш ніж стріляти по них.

Останні технологічні розробки підвищили перспективу дронів, які можуть відстежувати та вбивати без участі людини, яка приймає остаточне рішення.

У прес-релізі, який оголосив про партнерство з лондонським факультетом, британський стартап Hadean написав, що дві компанії працюють разом над «ідентифікацією об’єктів, відстеженням переміщення об’єктів, а також досліджують розробку, розгортання та роботу автономного роїння».

Зрозуміло, що робота факультету з Hadean не включала націлювання зброї. Однак факультет не відповів на питання про те, чи працює він над безпілотниками, здатними застосовувати смертоносну силу, або надати додаткові подробиці своєї роботи на захист, посилаючись на угоди про конфіденційність.

Представник факультету сказав: «Ми допомагаємо розробляти нові моделі штучного інтелекту, які допоможуть нашим партнерам із оборони створювати безпечніші та надійніші рішення», додавши, що компанія має «сувору етичну політику та внутрішні процеси» та дотримується етичних рекомендацій щодо штучного інтелекту від Міністерства Захист.

Представник сказав, що факультет має десятирічний досвід у сфері безпеки штучного інтелекту, включно з протидією сексуальному насильству над дітьми та тероризму.

Scott Trust, кінцевий власник Guardian, є інвестором у Mercuri VC, раніше GMG Ventures, яка є міноритарним акціонером у Faculty.

«Ми працювали над безпекою штучного інтелекту протягом десяти років і є провідними світовими експертами в цій галузі», — сказав речник. «Саме тому нам довіряють уряди та розробники моделей, що ми гарантуємо безпеку передового ШІ, а клієнти з оборони довіряють нам етичне застосування ШІ, щоб захистити громадян».

Багато експертів і політиків закликають бути обережними перед впровадженням більш автономних технологій у війську. Комітет Палати лордів у 2023 році закликав уряд Великої Британії спробувати укласти договір або необов’язкову угоду, щоб роз’яснити застосування міжнародного гуманітарного права, коли йдеться про смертоносні дрони. Партія зелених у вересні закликала прийняти закони про повну заборону летальних автономних систем зброї.

Викладацький склад продовжує тісно співпрацювати з AISI, завдяки чому його висновки можуть мати вплив на політику уряду Великобританії.

У листопаді AISI найняла викладачів для дослідження того, як великі мовні моделі «використовуються для допомоги в злочинній чи іншій небажаній поведінці». AISI заявив, що переможець контракту – факультет – «буде значним стратегічним партнером команди із захисту AISI, безпосередньо надаючи ключову інформацію для моделей системної безпеки AISI».

Компанія працює безпосередньо з OpenAI, стартапом, який почав останню хвилю ентузіазму ШІ, щоб використовувати його модель ChatGPT. Експерти раніше висловлювали занепокоєння щодо потенційного конфлікту в роботі, яку факультет виконував з AISI, повідомляє Politico, веб-сайт новин. Факультет не уточнив, моделі яких компаній він тестував, хоча тестував модель o1 OpenAI перед її випуском.

Джерело матеріала
loader