В пятницу Совет Европы согласовал Конвенциюоб искусственном интеллекте (ИИ), ставшую первым примером международно-правого документа, который носит обязательный характер.
Внезапное и бурное развитие искусственного интеллекта и особенно (с конца 2022 года) так называемого генеративного искусственного интеллекта сопровождается активным развитием правового регулирования этого чрезвычайно полезного и вместе с тем потенциально опасного изобретения инженерной мысли.
В этом году ZN.UA уже неоднократно писало об активной работе правительств многих стран в регулировании ИИ. Напомним, что только документов уровня стратегий и политик на 1 января 2024 года приняли около тысячи. В десятках стран в 2020–2024 годы парламенты приняли много законов и других нормативных актов, которые регулируют разные аспекты создания инструментов ИИ и смягчение рисков их применения. Это касается, в частности, охраны здоровья и военной сферы.
К сожалению, Украина, несмотря на бурное развитие инструментов ИИ, до сих пор существенно отстает в регулировании этой революционной технологии.
Хотя Министерство цифровой трансформации представило Дорожную карту развития искусственного интеллекта в Украине, это нельзя назвать даже началом, если сравнивать не только с большинством стран Европы, США, Китаем, но и со многими странами Азии и Латинской Америки. Экспертно-консультативный комитет по вопросам развития сферы ИИ в Украине, созданный при Министерстве цифровой трансформации Украины еще 21 декабря 2019 года, для регулирования ИИ не выглядит активным (ответственный — Тимофей Милованов). Если обратить внимание на веб-страницу комитета, то, кроме новости о Дорожной карте, там можно прочитать лишь о введении бесплатного курса по ИИ для педагогов. Серьезно? Это самые свежие новости, и они за 2023 год. Другая информация — это удачные черно-белые фото более 60 действующих, а также почему-то бывших членов комитета.
Именно для случаев, когда в национальном законодательстве есть пробелы в регулировании важных отношений, и существует международное право, которое является сверхважным инструментом установления одинаковых правил поведения для государств и международных организаций.
Уровни регулирования ИИ с помощью международных норм
За последние два года уже сложилось несколько уровней регулирования. В частности во время многосторонних межправительственных форумов подписаны несколько документов политического характера.
В перечне таких политических договоренностей стоит например, назвать заявление лидеров G7 от 30 октября 2023 года по Хирошимскому процессу, которым были утверждены Руководящие принципы и Кодекс поведения по ИИ. Итогом британского саммита по вопросам безопасности ИИ стала декларация Блетчли с призывом к международному сотрудничеству для управления рисками искусственного интеллекта.
Следующий уровень влияния международных норм рекомендательного характера наблюдается в рамках универсальных и региональных межправительственных организаций. Например, в январе 2024 года Всемирная организация здравоохранения (ВОЗ) издала новые рекомендации по этике и управлению большими мультимодальными моделями (LMM) — типом быстрорастущей технологии генеративного искусственного интеллекта с применением во всей системе здравоохранения.
А в конце марта 2024 года даже неповоротливая Генеральная ассамблея ООН приняла резолюцию, направленную на продвижение надежного ИИ.
Текст, который приняли без голосования, призывает членов ООН продвигать безопасные, защищенные и надежные системы искусственного интеллекта и не использовать системы, которые могут представлять чрезмерный риск для реализации прав человека.
Несколько лет подряд многие международные организации прагматично работают в направлении использования ИИ в международном уголовном правосудии, борьбе с киберпреступностью, дезинформацией в Интернете и т.п.
Революционные инициативы Совета Европы
Совет Европы (СЕ), членом которого Украина является с 1995 года, — один из лидеров в регулировании ИИ.
Разработанная в СЕ Конвенция об ИИ появилась не на пустом месте. В частности такую работу уже давно ведут в специализированных структурных подразделениях СЕ и, что интересно, она проводится для развития судебных систем в странах ⸺ членах СЕ. Так, еще в декабре 2018 года Европейская комиссия по вопросам эффективности правосудия (CEPEJ) Совета Европы приняла первый европейский документ, который устанавливает этические принципы, связанные с использованием ИИ в судебных системах.
1 декабря 2023 года Консультативный совет европейских судов (КСЕС) принял рекомендательный документ № 26 (2023) «Двигаясь вперед: использование ассистивных технологий в судопроизводстве». КСЕС ⸺ это орган при Комитете министров СЕ (куда входят действующие судьи), который разрабатывает выводы, непосредственно касающиеся независимости и беспристрастности судей.
Таким образом, можно сказать, что в регулировании ИИ, по крайней мере в судебных системах, Украина является влиятельным участником в разработке нормативных актов «мягкого» международного права.
В конце концов, можно утверждать, что, учитывая предыдущий опыт разработки нормативных актов «мягкого» международного права, СЕ достаточно быстро (как для международных документов такого уровня) разработала проект документа, который станет источником международного права — обязательным для исполнения.
Суть Рамочной конвенции
Полное название документа — «Рамочная конвенция Совета Европы об искусственном интеллекте и правах человека, демократии и верховенстве права». Текст состоит из 36 статей.
Конвенция устанавливает правовую базу, которая охватывает деятельность в рамках жизненного цикла систем ИИ, который потенциально может вмешиваться в права человека, демократию и верховенство права.
Каждая сторона применяет эту конвенцию к деятельности в рамках жизненного цикла систем ИИ, которую ведут органы государственной власти или частные лица, действующие от их имени.
Стороны также рассматривают риски и последствия, связанные с деятельностью частных субъектов на протяжении жизненного цикла систем ИИ способом, который отвечает объекту и цели этой конвенции.
«Этот первый своего рода глобальный юридически обязывающий документ создан для того, чтобы ИИ придерживался общих стандартов прав человека, демократии и верховенства права и был сведен к минимуму риск их нарушения», — заявила генеральный секретарь Совета Европы Мария Пейчинович-Бурич.
Участники конвенции применяют или поддерживают меры для выявления, оценки, предотвращения и смягчения рисков, созданных системами ИИ, с учетом фактического и потенциального влияния на права человека, демократию и верховенство права.
Такие меры должны:
- должным образом учитывать серьезность и вероятность потенциального влияния ИИ;
- рассматривать в соответствующих случаях точку зрения заинтересованных сторон, в частности лиц, права которых могут быть нарушены;
- применяться на протяжении всего жизненного цикла системы ИИ;
- включать мониторинг рисков и негативного влияния на права человека, демократию и верховенство права;
- включать документацию о рисках, фактическом и потенциальном влиянии, а также подходе к управлению рисками;
- требовать в соответствующих случаях тестирования систем ИИ прежде чем сделать их доступными для первого использования и после их существенной модификации.
Участники конвенции применяют или поддерживают меры, направленные на то, чтобы соответствующим образом рассматривать негативное влияние систем ИИ на права человека, демократию и верховенство права. Такое неблагоприятное влияние и мероприятия по его устранению должны быть задокументированы, также должна быть информация о мероприятиях по управлению рисками.
Напоминаем: несколько недель назад Европейский Союз согласовал Акт об искусственном интелекте, который должен быть частично введен в действие уже в этом году. Но СЕ и ЕС — это разные международно-правовые субъекты с разным составом участников.
В отличие от Акта ЕС, к конвенции уже сейчас могут присоединиться страны, которые не являются членами ЕС. Одиннадцать государств, которые не являются членами СЕ, принимали участие в разработке проекта конвенции.
Проблемы в разработке конвенции
Незадолго до составления документа многие общественные организации вместе с отдельными гражданами, учеными, экспертами по цифровым технологиям и инвесторами в общем заявлении высказали беспокойство тем, что государства ⸺ участники переговоров (включая страны, которые не являются членами Совета Европы, такие как США) обсуждали варианты текста, который мог позволить государствам ограничить применимость договора к государственным органам, то есть выделить исключения для частных компаний. По мнению этих организаций, «ответ на все призывы о регулировании искусственного интеллекта, предоставляющем свободный доступ частным компаниям и сторонникам жесткой линии безопасности, не выглядит эффективной защитой их прав».
В общем открытом письме гражданское общество призвало страны ⸺ участницы переговоров убедиться, что конвенция об ИИ не делает исключения ни для частных компаний, ни для случаев использования ИИ в интересах национальной безопасности.
Это письмо было адресовано всем сторонам переговоров. Оно объединяет две похожие инициативы, направленные правительству США и делегации ЕС.
Само принятие Рамочной конвенции Совета Европы позволяет Украине наверстать отставание в регулировании ИИ. Для этого нужно ратифицировать конвенцию, согласно национальным процедурам, определенным Законом «О международных договорах Украины».
Наконец конвенция стала успешным результатом двухлетней работы межправительственного органа СЕ — Комитета по искусственному интеллекту (CAI), который собрал для разработки проекта договора 46 государств ⸺ членов Совета Европы, Европейский Союз и 11 государств, которые не являются членами (Аргентину, Австралию, Канаду, Коста-Рику, Святой Престол, Израиль, Японию, Мексику, Перу, Соединенные Штаты Америки и Уругвай), а также представителей частного сектора, гражданского общества и научных кругов, которые принимали участие как наблюдатели.
В официальной информации на сайте СЕ указано: «Договор охватывает использование систем искусственного интеллекта в государственном секторе, включая компании, действующие от его имени, и в частном секторе. Конвенция предлагает сторонам два способа соблюдать ее принципы и обязательства во время регулирования частного сектора: стороны могут выбрать прямое обязательство согласно соответствующим положениям конвенции или как альтернативу применить другие меры для выполнения положений соглашения, полностью придерживаясь своих международных обязательств по правам человека, демократии и верховенству права. Такой подход необходим из-за отличий в правовых системах во всем мире».
В этой же информации отмечается, что участники конвенции не будут обязаны применять ее положения к деятельности, связанной с защитой интересов национальной безопасности, но будут обязаны обеспечить, чтобы эта деятельность уважала международное право и демократические институты и процессы. Конвенция не будет распространяться на вопросы национальной обороны, а также на исследовательскую и исследовательско-конструкторскую деятельность, за исключением случаев, когда тестирование систем ИИ может потенциально вмешиваться в права человека, демократию или верховенство права.
Конвенция будет открыта для подписания 5 сентября 2024 года в Литве.
Статья подготовлена при поддержке программы Cara's Fellowship Program