Искусственный интеллект и Белая книга Украины. Как догнать лидеров?
Искусственный интеллект и Белая книга Украины. Как догнать лидеров?

Искусственный интеллект и Белая книга Украины. Как догнать лидеров?

Искусственный интеллект и Белая книга Украины. Как догнать лидеров?

Прошло почти полгода с даты обнародования правительственного документа под названием «Біла книга з регулювання ШІ в Україні: бачення Мінцифри. Версія для консультацій» (БК ИИ). Авторы этого аналитического материала предложили подход к регулированию технологий искусственного интеллекта (ИИ) в Украине.

В предисловии к БК ИИ министр цифровой трансформации Украины Михаил Федоров причиной ее появления назвал опасность «стремительного развития искусственного интеллекта и его потенциального влияния на права человека». Скажу откровенно, что такой тезис государственного деятеля уровня министра немного удивил, поскольку об этой опасности в мире было известно задолго до лета 2024 года. И если именно эта опасность была причиной появления БК ИИ, то Украина с ее публикацией уже опоздала.

Так, Илон Маск еще в 2014 году называл искусственный интеллект «нашей самой большой экзистенциальной угрозой». В аналитическом центре RAND Corporation в 2017 году предупреждали о «рисках предвзятости и ошибок искусственного интеллекта».

Но в тексте министра Федорова сообщается, что был разработан подход, «адресующий вызовы без внедрения обязательного регулирования в ближайшие два-три года». Два-три года! Серьезно? Граждане Украины действительно должны столько ждать реакции государства в ответ на «стремительное развитие ИИ», которое может необратимо негативно повлиять на их гражданские права?

Допускаю, что авторы БК ИИ также не обратили внимания на совершенно свежие экспертные выводы многих профессионалов, в частности Йошуа Бенгио — профессора информатики Монреальского университета, основателя и научного директора Института искусственного интеллекта Мила-Квебек, а также старшего научного сотрудника и содиректора программы «Обучение в машинах и мозге» Канадского института перспективных исследований, который, в частности, написал следующее: «Мощные инструменты, особенно искусственный интеллект, могут быть легко использованы правительствами для укрепления их власти, например, с помощью разных методов наблюдения, таких как камеры и мониторинг онлайн-дискурса, а также механизмов контроля, таких как полицейская деятельность на основе ИИ и военное оружие. Естественно, что упадок демократических принципов коррелирует с ухудшением прав человека. Кроме того, сверхчеловеческий искусственный интеллект может дать беспрецедентную власть тем, кто им руководит, — отдельным лицам, корпорациям или правительствам, угрожая демократии и геополитической стабильности».

А теперь, собственно, о содержании БК ИИ в рамках предложенных консультаций. (Интересно, что авторы предупредили: БК ИИ «не является аналитическим документом публичной политики в понимании Закона Украины «О правотворческой деятельности»).

Своевременно ли появление украинской БК ИИ?

Отвечаю: однозначно да! Почему? Потому что в тех странах, которые являются лидерами по разработке и применению ИИ, такие документы уже давно есть. Важно добавить, что уже после появления их появились и другие, которые, в отличие от документов уровня «Белой книги», являются или юридически обязательными, или носят реальный рекомендательный характер, или другим способом побуждают к изменению поведения заинтересованных лиц.

То, что украинская БК ИИ вообще появилась в июне этого года, можно назвать важным интеллектуальным результатом. Но нельзя сказать, что она появилась вовремя в стране, которая претендует на место среди лидеров развития ИИ.

При чем здесь социологические опросы?

Начальные страницы текста БК ИИ отведены для презентации результатов социологического исследования настроений граждан Украины по отношению к ИИ.

Сразу замечу, что отвод значительной части дорогой площади текста под презентацию социологического опроса выглядит нерациональным и вообще не встречается в известных нам образцах Белых книг, изданных в других странах. По моему мнению, достаточно было дать гиперссылку на его текст в Интернете. Заданные вопросы выглядят банальными даже для опросов об отношении к ИИ, проводившихся лет десять назад. Какое, например, последствие для определения государственной политики 2024 года имеют ответы об осведомленности граждан Украины об использовании ИИ в пылесосах? Кстати, опрос проводили только в городах, где живет больше 50 тысяч жителей.

В то же время в открытом доступе в Интернете можно увидеть результаты как масштабных опросов общего характера, так и по очень специальным вопросам.

В январе 2024 года были объявлены результаты проведенного Google и Ipsos одного из самых больших глобальных опросов по ИИ, в котором приняли участие более 17 тысяч участников в 17 странах. На их основе был создан отчет «Наша жизнь с искусственным интеллектом».

Глобальный опрос общественного мнения относительно искусственного интеллекта (GPO-AI) изучил мнения об ИИ 23 882 респондентов в 21 стране. Результаты этого опроса раскрыли разное и специфическое отношение к использованию ИИ, а его темы включают потерю работы, дипфейки и государственное регулирование.

Согласитесь, что результаты опросов десятков тысяч респондентов в десятках стран на четырех континентах охватывают намного больше тем и важных деталей об ИИ, чем опрос 1200 респондентов в одной стране, и могут быть уникальным источником для аналитического документа, который будет использован для разработки государственной политики на перспективу.

Оборона и ИИ

Заголовок одного из первых разделов книги «Сфера оборони — поза регулюванням» говорит сам за себя. На таком подходе уже неоднократно настаивали представители правительства. Я обращал внимание на этот тезис министерства еще в начале года и соглашаюсь с ним. Но позволю себе одно важное уточнение: сфера обороны — лишь одна из составляющих безопасности в целом.

Что касается предложения авторов перевести проблему на международное гуманитарное право, то, выражая с ними осторожное согласие, все же обращу внимание на то, что термин «военный ИИ» чаще используется с термином «право вооруженных конфликтов». На этот момент уже обработаны глубокие исследования и многочисленные рекомендации в этом направлении, о которых в БК ИИ не сказано ни слова. А речь идет не столько о технических разработках, сколько о принятии решений.

В следующем разделе «Взаємозвʼязок з іншими галузями права» впервые упомянуто намерение «двигаться путем принятия общего и всеобъемлющего закона на финальном этапе нашего подхода». В этой части текста речь идет о присоединении в будущем к Акту ЕС об искусственном интеллекте, вступившему в силу летом этого года.

Вместе с тем сделано предположение о том, что «определенные общественные отношения, влияние на которые может иметь ИИ, должны охватываться соответствующим секторальным законодательством». И далее: «Это неактуально прежде всего там, где сценарии или пути использования ИИ являются второстепенными в отношении к определению правовых последствий такого использования».

Из этих цитат и далее видно, что часть текста Белой книги, касающаяся регулирования ИИ, меньше всего обработана, наименее конкретна и даже довольно запутана. Намерения авторов имплементировать Акт об искусственном интеллекте на втором этапе (через два-три года) не выглядят реалистичными. А отсутствие упоминаний о каких-либо примерах «секторального законодательства», а тем более актах государственных регуляторов и документах уровня установок, рекомендаций и т.п., свидетельствует о неуверенности авторов в том, какие именно нормативные акты могут стать основой для такого регулирования даже в ближайшее время.

Распутать эту проблему может помочь опыт наших стратегических партнеров. Рекомендую обратить внимание на высококлассный государственный документ, опубликованный в марте 2023 года Департаментом науки, инноваций и технологий правительства Великобритании под названием «Инновационный подход к регулированию искусственного интеллекта». Этот документ содержит десятки примеров того, как можно оперативно и эффективно применять разные виды регулирования без необходимости принятия законов парламентом. Только ссылок на уже действующие документы он содержит больше 150. Это — клондайк актуальной и полезной информации о регулировании ИИ.

Несколько иной подход был реализован в США. Год назад президент Байден издал Исполнительный указ о безопасном, защищенном и надежном развитии и использовании искусственного интеллекта (110 страниц), который содержал около 200 поручений разным государственным органам относительно их роли в регулировании отдельных аспектов ИИ.

Через год — 30 октября 2024 года — администрация Байдена—Харрис обнародовала Информационный бюллетень: Ключевые достижения в сфере искусственного интеллекта через год, прошедший после исторического указа. В бюллетене указаны все меры, принятые федеральными ведомствами, предусмотренные Исполнительным указом Байдена (более ста). В списке — только меры, не требующие принятия законов.

И наконец в октябре 2024 года в Белом доме был обнародован Меморандум об укреплении лидерства Соединенных Штатов в сфере искусственного интеллекта; использовании искусственного интеллекта для достижения целей национальной безопасности; содействии безопасности, защищенности и надежности искусственного интеллекта — также с огромным количеством конкретных поручений. И опять же рекомендую ознакомиться с ним, чтобы получить необходимый опыт в регулировании именно искусственного интеллекта и именно юридическими инструментами, не являющимися законом.

Коротко о целях, определенных в БК ИИ

Цель 1: Поддержка конкурентоспособности бизнеса

Авторы откровенно отмечают: «Эта цель логически вытекает из базового понимания разработчиков подхода и авторов этой Белой книги о необходимости применения такого подхода к регулированию, который не только не будет наносить ущерб развитию бизнеса и инновационным продуктам в сфере ИИ, но и поможет украинскому бизнесу выходить на международные рынки».

Очерченная цель максимально прагматична и, к сожалению, определена намного уже, чем это сделано в аналогичных документах, опубликованных в других странах. Интересы бизнеса необходимо гармонизировать с вопросами восстановления и развития (после завершения войны) экономики Украины в целом. Именно термины «экономика» и «промышленность» — основные в британском документе, процитированном выше.

Это же касается и расширения палитры инструментов влияния со стороны государственных регуляторов. Например, совсем не упомянута возможная роль такого важного государственного органа, как Антимонопольный комитет Украины.

О принципах управления конкурентными рынками ИИ и защите потребителей, внедренных Управлением по вопросам конкуренции и рынков (Великобритания) рекомендую прочитать здесь.

Цель 2: Защита прав человека

Текст этого раздела написан правильными словами и словосочетаниями, но на сегодняшний день является целиком банальным и таким, который не отображает полную палитру рисков возможных нарушений прав человека, определенных в сотнях источников на украинском и английском языках. В тексте, к сожалению, приведены только самые простые примеры нарушений прав человека, подверженного дискриминации. Для адекватной оценки известных на сегодняшний день случаев возможных нарушений рекомендую ознакомиться, например, хотя бы с изданием Oxford University Press 2023 года Artificial Intelligence and Human Rights (Искусственный интеллект и права человека), где на 688 страницах предложен подробный юридический анализ влияния искусственного интеллекта на широкий спектр конкретных прав человека, проанализированы тематические исследования влияния, охватывающие права человека первого, второго и третьего поколения, даны примеры рисков для прав человека, когда появляются новые программы ИИ.

В конце текста этого пункта указано, что «с целью защиты граждан от таких рисков и защиты прав человека во время взаимодействия с ИИ возникает потребность во введении юридически обязательного и всеобъемлющего регулирования, которое и предлагается на втором этапе нашего подхода». Далее в тексте речь идет о том, что второй этап наступит приблизительно через два-три года, с чем я категорически не могу согласиться. Права человека могут нарушаться уже здесь и сейчас. И законодательная конкретизация норм, регулирующих защиту прав человека, необходима и возможна уже в ближайшее время.

Цель 3: Евроинтеграция

В тексте этого пункта мало содержательных фраз. Он, скорее, носит исключительно политико-пропагандистский характер, и его главный тезис фактически изложен в одном предложении: «Отдавая должное внимание разным мнениям о регулировании ИИ в ЕС и подходе ЕС к регулированию цифровой сферы в целом, разработчики предлагаемого подхода не видят морального права становиться на пути воплощения цели украинского народа — вступления в ЕС, в частности, путем введения положений, которые противоречили бы или шли вразрез с законодательством ЕС только для того, чтобы определенный сектор нашей цифровой экономики имел определенные экономические преимущества».

Что делать?

Следующая часть БК ИИ содержит много перспективных предложений относительно реализации идей, изложенных в первой части. Эти предложения касаются конкретных инструментов и возможных программ, по аналогии с программами, уже работающими в других странах. А еще БК ИИ не содержит ни реальных сроков, ни перечня государственных институтов, способных реализовать все предложенное.

Практически все предложения интересны и перспективны, если не принимать во внимание проблему способности реализовать хотя бы 25% от предложенного. Для того чтобы оценить масштаб необходимой организаторской работы, предлагаю читателям ознакомиться хотя бы с текстами британской Белой книги ИИ и невероятными указами Байдена относительно ИИ и отчетами об их выполнении (только через год). А потом попытайтесь найти в открытых источниках упоминание хотя бы о пяти мерах по регулированию ИИ, которые были реализованы после публикации в Украине БК ИИ.

Для того чтобы этот проект был реализован нужен лидер с деловыми качествами министра Федорова, который занимался бы исключительно этим проектом. Но во время войны у министра Федорова огромный объем работы, связанной с войной. Потому что тянет. Но один в поле не воин.

Источник материала
loader
loader