/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F9f4650e678af9fd55c356864ea777553.jpg)
США: сенатор Вінер лобіює закон, що передбачає обов'язкові звіти про безпеку штучного інтелекту
Сенатор штату Каліфорнія Скотт Вінер вніс нові поправки до свого останнього законопроєкту SB 53, які вимагатимуть від найбільших у світі компаній зі штучного інтелекту публікувати протоколи безпеки та звіти про виникнення інцидентів, пов'язаних з безпекою.
Якщо закон буде підписаний, Каліфорнія стане першим штатом, який запровадить суттєві вимоги щодо прозорості для провідних розробників штучного інтелекту, ймовірно, включаючи OpenAI, Google, Anthropic та xAI.
Попередній законопроект сенатора Вінера про штучний інтелект, SB 1047, містив аналогічні вимоги до розробників моделей ШІ щодо публікації звітів про безпеку. Однак Кремнієва долина запекло боролася проти цього законопроекту, і зрештою його ветував губернатор Гевін Ньюсом . Потім губернатор Каліфорнії закликав групу лідерів у сфері ШІ, включаючи провідного дослідника Стенфорда та співзасновника World Labs Фей-Фей Лі, сформувати політичну групу та встановити цілі щодо зусиль штату щодо безпеки ШІ.
Каліфорнійська група з питань політики у сфері штучного інтелекту нещодавно опублікувала свої остаточні рекомендації , посилаючись на необхідність «вимог до галузі публікувати інформацію про свої системи» з метою створення «надійного та прозорого середовища доказової бази». Офіс сенатора Вінера заявив у прес-релізі, що на поправки до SB 53 значною мірою вплинув цей звіт.
«Законопроект продовжує перебувати в процесі розробки, і я з нетерпінням чекаю на співпрацю з усіма зацікавленими сторонами в найближчі тижні, щоб удосконалити цю пропозицію до максимально наукового та справедливого закону», – сказав сенатор Вінер у прес-релізі.
Законопроект SB 53 має на меті знайти баланс, якого, за словами губернатора Ньюсома, не вдалося досягти законопроектом SB 1047 — в ідеалі створити значущі вимоги до прозорості для найбільших розробників штучного інтелекту, не перешкоджаючи швидкому зростанню індустрії штучного інтелекту в Каліфорнії.
«Це ті проблеми, про які моя організація та інші говорять вже деякий час», – сказав Натан Келвін, віце-президент з державних справ некомерційної групи з безпеки штучного інтелекту Encode, в інтерв’ю TechCrunch. «Пояснення компаніями громадськості та уряду, які заходи вони вживають для вирішення цих ризиків, здається мінімальним, розумним кроком».
Законопроект також створює захист викривачів для співробітників лабораторій штучного інтелекту, які вважають, що технології їхньої компанії становлять «критичний ризик» для суспільства, що визначається в законопроекті як сприятливий для смерті або травмування понад 100 людей або збитків на суму понад 1 мільярд доларів.
Крім того, законопроект має на меті створити CalCompute, публічний кластер хмарних обчислень для підтримки стартапів та дослідників, які розробляють масштабний штучний інтелект.
На відміну від законопроекту SB 1047, новий законопроект сенатора Вінера не покладає відповідальність на розробників моделей штучного інтелекту за шкоду, завдану їхніми моделями. Законопроект SB 53 також був розроблений таким чином, щоб не створювати тягаря для стартапів та дослідників, які допрацьовують моделі штучного інтелекту від провідних розробників або використовують моделі з відкритим кодом.
З новими поправками законопроект SB 53 тепер направлено на затвердження до Комітету з питань конфіденційності та захисту прав споживачів Асамблеї штату Каліфорнія. Якщо його там буде схвалено, законопроект також повинен буде пройти через кілька інших законодавчих органів, перш ніж потрапить на стіл губернатора Ньюсома.
З іншого боку США, губернатор Нью-Йорка Кеті Хочул зараз розглядає аналогічний законопроект про безпеку штучного інтелекту, Закон RAISE, який також вимагатиме від великих розробників штучного інтелекту публікації звітів про безпеку.
Доля законів штатів про штучний інтелект, таких як RAISE Act та SB 53, ненадовго опинилася під загрозою, оскільки федеральні законодавці розглядали 10-річний мораторій на регулювання ШІ на рівні штатів — спробу обмежити «клаптикову масу» законів про ШІ, з якими компаніям доведеться орієнтуватися. Однак ця пропозиція не була прийнята Сенатом раніше в липні голосуванням 99 проти 1.
«Забезпечення безпечної розробки штучного інтелекту не повинно бути суперечливим — воно має бути основоположним», — сказав Джефф Ральстон, колишній президент Y Combinator, у заяві для TechCrunch. «Конгрес має бути провідним, вимагаючи прозорості та підзвітності від компаній, що створюють передові моделі. Але за відсутності серйозних федеральних дій на горизонті, штати повинні активізуватися. Каліфорнійський законопроект SB 53 — це продуманий, добре структурований приклад державного лідерства».
До цього моменту законодавцям не вдалося залучити компанії, що займаються штучним інтелектом, до виконання державних вимог щодо прозорості. Anthropic загалом підтримала необхідність підвищення прозорості для компаній, що займаються штучним інтелектом , і навіть висловила помірний оптимізм щодо рекомендацій каліфорнійської групи з питань політики у сфері штучного інтелекту. Але такі компанії, як OpenAI, Google та Meta, більш стійко поставилися до цих зусиль.
Провідні розробники моделей штучного інтелекту зазвичай публікують звіти про безпеку своїх моделей, але в останні місяці вони були менш послідовними. Наприклад, Google вирішив не публікувати звіт про безпеку своєї найсучаснішої моделі штучного інтелекту, Gemini 2.5 Pro, доки не мине кілька місяців після її випуску. OpenAI також вирішив не публікувати звіт про безпеку своєї моделі GPT-4.1 . Пізніше з'явилося стороннє дослідження, яке показало, що вона може бути менш узгодженою, ніж попередні моделі штучного інтелекту .
Законопроект SB 53 являє собою пом'якшену версію попередніх законів про безпеку штучного інтелекту, але він все ще може змусити компанії, що займаються штучним інтелектом, публікувати більше інформації, ніж вони роблять сьогодні. Наразі вони уважно стежитимуть за тим, як сенатор Вінер знову випробовує ці межі.

