США: передові моделі штучного інтелекту не повинні опинитися в чужих руках
США: передові моделі штучного інтелекту не повинні опинитися в чужих руках

США: передові моделі штучного інтелекту не повинні опинитися в чужих руках

Адміністрація Байдена готова відкрити новий фронт у своїх зусиллях із захисту штучного інтелекту США від Китаю та Росії за допомогою попередніх планів встановити огорожі навколо найдосконаліших моделей штучного інтелекту, повідомляє Reuters.

Дослідники з уряду та приватного сектору стурбовані тим, що вороги США можуть використовувати моделі, які видобувають величезну кількість тексту та зображень для узагальнення інформації та створення вмісту, для проведення агресивних кібератак або навіть для створення потужної біологічної зброї.

Ось деякі загрози, створені ШІ:

ДІПФЕЙКИ ТА ДЕЗІНФОРМАЦІЯ

Deepfakes — реалістичні, але сфабриковані відео, створені алгоритмами штучного інтелекту, навченими на великій кількості онлайн-матеріалів, — з’являються в соціальних мережах, розмиваючи факти та вигадки в поляризованому світі політики США.
Хоча такі синтетичні медіа існують уже кілька років, за останній рік вони були активізовані завдяки низці нових інструментів «генеративного штучного інтелекту», таких як Midjourney, які дозволяють дешево та легко створювати переконливі дипфейки.
Інструменти створення зображень на базі штучного інтелекту від таких компаній, як OpenAI і Microsoft, можна використовувати для створення фотографій, які можуть популяризувати дезінформацію, пов’язану з виборами чи голосуванням, попри те, що кожна з них має політику проти створення оманливого контенту, заявили дослідники.
Деякі кампанії з дезінформації просто використовують здатність ШІ імітувати справжні новинні статті як засіб поширення неправдивої інформації.
Хоча основні соціальні медіа-платформи, такі як Facebook, Twitter і YouTube, доклали зусиль, щоб заборонити та видалити дипфейки, їхня ефективність у контролі такого контенту різна.
Наприклад, минулого року контрольований урядом Китаю сайт новин, який використовує генеративну платформу штучного інтелекту, висунув раніше поширену неправдиву заяву про те, що Сполучені Штати керують лабораторією в Казахстані для створення біологічної зброї для використання проти Китаю, Міністерство внутрішньої безпеки (DHS). ) йдеться у своїй оцінці внутрішньої загрози 2024 року.
Радник з питань національної безпеки Джейк Салліван, виступаючи на заході з питань штучного інтелекту у Вашингтоні в середу, сказав, що проблема не має легких рішень, оскільки вона поєднує в собі потенціал ШІ з «наміром державних, недержавних акторів використовувати дезінформацію в масштабах, щоб руйнувати демократії, щоб просувати пропаганду, формувати сприйняття у світі».
«Зараз напад значно перемагає захист», — сказав він.

БІОЛОГІЧНА ЗБРОЯ

Американське розвідувальне співтовариство, аналітичні центри та науковці все більше стурбовані ризиками, пов’язаними з тим, що іноземні зловмисники отримають доступ до передових можливостей ШІ. Дослідники зазначили, що передові моделі штучного інтелекту можуть надавати інформацію, яка може допомогти у створенні біологічної зброї.
Gryphon досліджував, як великі мовні моделі (LLM) – комп’ютерні програми, які беруть із величезної кількості тексту для генерування відповідей на запити – можуть бути використані ворожими суб’єктами для заподіяння шкоди в галузі наук про життя, і виявив, що вони «можуть надати інформацію, яка може допомогти зловмисник у створенні біологічної зброї, надаючи корисну, точну та детальну інформацію на кожному кроці цього шляху».
Вони виявили, наприклад, що LLM може надати знання на постдокторському рівні для розв'язання проблем під час роботи з вірусом, здатним до пандемії.
Дослідження Ренда показали, що LLM можуть допомогти у плануванні та виконанні біологічної атаки. Вони виявили, що магістр права може, наприклад, запропонувати аерозольні методи доставки ботулінічного токсину.

КІБЕРЗБРОЯ

Ймовірно, використовуватимуть штучний інтелект для «розробки нових інструментів» для «забезпечення більш масштабних, швидших, ефективних і більш обхідних кібератак» проти критичної інфраструктури, включаючи трубопроводи та залізниці, у своїй оцінці внутрішньої загрози 2024 року.
Китай та інші супротивники розробляють технології штучного інтелекту, які можуть підірвати кіберзахист США, повідомляє DHS, включаючи генеративні програми штучного інтелекту, які підтримують атаки шкідливих програм.
У звіті Microsoft заявила, що відстежувала хакерські групи, пов’язані з урядами Китаю та Північної Кореї, а також російською військовою розвідкою та Революційною гвардією Ірану, коли вони намагалися вдосконалити свої хакерські кампанії, використовуючи великі мовні моделі.
Компанія оголосила про знахідку, коли ввела загальну заборону на використання її продуктів ШІ державними хакерськими групами.

НОВІ ЗУСИЛЛЯ ЩОДО ВИПРАВЛЕННЯ ЗАГРОЗ

Двопартійна група законодавців оприлюднила законопроєкт увечері в середу, який спростить для адміністрації Байдена запровадження контролю над експортом моделей штучного інтелекту, намагаючись захистити цінну американську технологію від іноземних зловмисників.
Законопроєкт, спонсорований республіканцями в Палаті представників Майклом МакКолом і Джоном Моленааром і демократами Раджею Крішнамурті і Сьюзан Уайлд, також надасть Міністерству торгівлі повноваження забороняти американцям співпрацювати з іноземцями для розробки систем штучного інтелекту, які становлять загрозу національній безпеці США.
Тоні Семп, радник з політики штучного інтелекту в DLA Piper у Вашингтоні, сказав, що політики у Вашингтоні намагаються «сприяти інноваціям і уникати жорсткого регулювання, яке пригнічує інновації», оскільки вони прагнуть усунути численні ризики, пов’язані з технологією.
Але він попередив, що «придушення розробки штучного інтелекту шляхом регулювання може перешкодити потенційним проривам у таких сферах, як відкриття ліків, інфраструктура, національна безпека тощо, і поступитися конкурентам за кордоном».
Источник материала
Поделиться сюжетом