На прошлой неделе Парламент ЕС проголосовал за принятие Закона об искусственном интеллекте, впервые представленного еще три года назад — фактически документ прошел через последний бюрократический круг, и сейчас приближается к официальному внедрению.
Закон вступит в силу где-то в мае, а первые изменения люди, живущие в ЕС, увидят уже к концу года. Еще предстоит создать регуляторный орган, который будет следить за соблюдением правил, а компаниям отведут три года для адаптации. Так что же именно изменит (а что нет) новое законодательство?
1. Некоторые виды ИИ будут запрещены
Речь идет об искусственном интеллекте, который относят к «высокорисковым системам» (то есть те, которые представляют высокий риск для фундаментальных прав людей, например в сфере здравоохранения, образования и правоохранительной системе), а также к системам с «неприемлемым риском» (например, системы искусственного интеллекта, которые используют «подсознательные, манипулятивные или обманчивые методы, чтобы исказить поведение и помешать принятию обоснованных решений», или эксплуатируют уязвимых людей).
Закон об искусственном интеллекте также запрещает использование программного обеспечения для распознавания лиц в режиме реального времени в общественных местах, а также создание баз данных распознавания лиц путем сканирования Интернета по технологии Clearview AI.
В то же время правоохранительным органам по-прежнему разрешено использовать конфиденциальные биометрические данные, а также программное обеспечение для распознавания лиц в общественных местах для борьбы с серьезными преступлениями, такими как терроризм или похищения.
2. Использование ИИ должно стать «более очевидным»
Технологические компании обяжут обозначать дипфейки и контент, созданный искусственным интеллектом, а также оповещать людей, когда они взаимодействуют с чат-ботом или другой системой искусственного интеллекта.
Это требование направлено на борьбу с дезинформацией, однако современные исследования все еще отстают от законодательства. Например, предложенные водяные знаки — это все еще экспериментальная технология, которую можно с легкостью подделать.
Однако есть несколько в перспективе эффективных способов — например спецификация C2PA на основе криптографических методов, которая позволит сайтам идентифицировать изображения, созданные ИИ, и обозначать тем или иным образом.
3. На ИИ теперь можно пожаловаться
В ЕС создадут Европейский офис по искусственному интеллекту, куда граждане смогут подавать жалобы на системы искусственного интеллекта в случае причинения вреда и требовать объяснения от компаний.
4. ИИ-компании станут более прозрачными
Компании, которые разрабатывают «общие модели искусственного интеллекта», такие, как языковые модели, должны будут создавать и хранить техническую документацию, показывающую, как они построили модель, соблюдают ли они закон об авторском праве, а также публиковать в целом итог того, какие учебные данные были использованы для модели.
Компании с самыми мощными моделями искусственного интеллекта, такими как GPT-4 и Gemini, получат несколько более обременительные требования — такие, как оценка моделей и ее рисков, обеспечение киберзащиты и отчетность о любых инцидентах, когда система искусственного интеллекта была повреждена. Компании, которые не выполнят требований, столкнутся с большими штрафами, или полным запретом в ЕС.
Штрафы будут колебаться от 7,5 миллиона евро или 1,5% от общего мирового оборота компании (в зависимости от того, что больше) за предоставление неверной информации регуляторам; до 15 миллионов евро или 3% от мирового оборота за нарушение определенных положений закона, таких как обязательства по прозрачности; до 35 миллионов евро, или 7% оборота, за развертывание или разработку запрещенных инструментов ИИ.
Источник: MIT Technology Review