Цифровые судьи, искусственное общество и виртуальные граждане: как ИИ меняет цивилизацию
Цифровые судьи, искусственное общество и виртуальные граждане: как ИИ меняет цивилизацию

Цифровые судьи, искусственное общество и виртуальные граждане: как ИИ меняет цивилизацию

Цифровые судьи, искусственное общество и виртуальные граждане: как ИИ меняет цивилизацию

Человечество изобрело искусственный интеллект — и теперь пытается понять, как с ним жить. Мы уже не можем чувствовать себя «царями природы» — рядом появился искусственный конкурент, который может учиться, анализировать и принимать решения и даже превосходить нас интеллектуально. Как с ним сосуществовать и как он уже влияет на будущее человечества — ZN.UA говорило с доктором юридических наук, заведующим Научной лабораторией иммерсивных технологий и права НАН Украины Алексеем Костенко.

Это вторая часть интервью. В первой мы выяснили, как «устроен» искусственный интеллект и почему он только притворяется, что нас понимает.

Алексей Владимирович, по вашему мнению, станет ли развитие ИИ угрозой для человеческого интеллекта? По прогнозам аналитиков, он постепенно сможет заменить людей в профессиях, связанных с интеллектуальным трудом.

— Такие футуристические страшилки появляются время от времени. С развитием искусственного интеллекта некоторые профессии действительно отойдут в прошлое, вместо них появятся новые. Как исчезли профессии, связанные с гаджетами прошлой эпохи: мастера по ремонту дисковых телефонов или телевизоров марки «Огонек», сервисные службы холодильников «Минск».

По данным Всемирного экономического форума, до 2030 года автоматизация поглотит около 92 миллионов рабочих мест. Но появится приблизительно 170 миллионов новых — преимущественно в сферах, связанных с искусственным интеллектом, большими данными и программированием. И если вы откроете страницу с вакансиями OpenAI, Microsoft или любой другой корпорации, которая работает с ИИ, — вы увидите там очень интересные названия новых профессий.

Поэтому интеллектуальный труд не исчезнет. Наоборот, те, кто способен генерировать новые идеи, гипотезы, задачи, социальные конструкции, перейдут в класс привилегированных. Если ты можешь создавать то, что машина не способна сгенерировать, — ты будешь «белой костью» цивилизации. Как на золотых приисках ищут золото, так в будущем государства будут искать людей, способных порождать новые идеи. И будут поддерживать их материально и морально. Поскольку информацию нужно не только потреблять, а и генерировать. Это главное.

Сгенерировано по запросу Алексея Костенко

Но ты не станешь конструктором будущего, если не будешь учиться постоянно. Если остановишься, если перестанешь обновлять базу знаний, которую носишь на плечах. И если не научишься конструировать эти знания — с помощью тех же больших языковых моделей.

— То есть, в гонках «технологии vs человек» человек не проиграет?

— Да. Но, по моему мнению, цифровое общество вряд ли останется жестко антропоцентричным. В нем уже появилисьцифровые субъекты — аватары, электронные личности, роботы-гуманоиды, которые по уровню интеллекта потенциально могут в сотни раз превосходить человека, если ими будет руководить искусственный интеллект высшего порядка — AGI (Artificial General Intelligence). Это, условно говоря, «суперGPT», способный не просто отвечать на запросы, а самостоятельно генерировать идеи, принимать решения и действовать: заключать контракты, назначать лечение, разрабатывать технологии.

Видео сгенерировано по запросу Алексея Костенко

Уже сегодня ведутся дискуссии о возможности частично наделить таких цифровых субъектов правами человека. Например, в Евросоюзе обсуждают идею предоставить AGI-агентам правовой статус, который позволил бы им действовать от лица корпораций: подписывать соглашения, вести переговоры, распоряжаться активами, даже участвовать в судебных процессах. Фактически речь идет о попытке сделать ИИ не просто инструментом, а самостоятельным участником правовых отношений. И уже сейчас есть определенные шаги в этом направлении.

Например, в октябре 2025 года правительство Казахстана сделало шаг, который пока не решились сделать ни в США, ни в странах Европейского Союза: в состав совета директоров государственного инвестиционного фонда «Самрук-Казина» официально вошел искусственный интеллект. Его имя — SKAI, или Samruk-Kazyna Artificial Intelligence. Он имеет полноценное право голоса при принятии решений. Фонд управляет активами больше 81 миллиарда долларов. И теперь один из голосов, который определяет их будущее, принадлежит не человеку.

SKAI функционирует на базе суперкомпьютера Al Farabium с архитектурой NVIDIA. Он изолирован от внешних сетей, учится исключительно на внутренних данных фонда и анализирует все решения, принятые советом за последние полтора десятилетия. Его роль — не только аналитика. Он призван выявлять ошибки, прогнозировать сценарии и предлагать новые стратегии.

— В некоторых странах успешно функционируют «цифровые судьи». Как это происходит?

Такая система работает в Бразилии: ИИ готовит к рассмотрению дела, проводит предварительный анализ, ищет прецеденты, формирует проект решения. А потом его утверждает судья. Благодаря этому один судья за год может рассматривать больше 30 тысяч административных дел. В Китае есть не только «цифровой суд», а и «цифровая прокуратура», правда, она тоже рассматривает только дела, не связанные с нанесением вреда человеку.

— Кстати, о судах. Известны случаи, когда люди подают в суд на ИИ. Так, в США родители подростка подали иск против компании-разработчика ChatGPT и ее генерального директора. Их сын совершил суицид по совету этой языковой модели. Родители считают, что разработчик не принял должные меры безопасности и не ввел механизмы вмешательства на случай, когда ИИ дает опасные для жизни советы.

— Это сложные вопросы. С кем судиться — или только с разработчиком языковой модели, или же и с тем, кто неправильно написал промпт (задачу) для ИИ? Кто вообще несет ответственность за преступления, совершенные цифровыми субъектами, — пользователь, платформа, создатель, инфраструктурный провайдер или государство?

Неурегулированных вопросов по ИИ много. В праве, как и во всех сферах общественной жизни, наступил момент сингулярности — когда старые подходы не действуют. Ведь искусственный интеллект, цифровой мир (Метамир), электронная юрисдикция меняют саму природу социального взаимодействия. Право будущего требует не косметического ремонта и «обновления норм», а создания новой логики юридического действия.

И пока эта новая логика только формируется, мы пытаемся урегулировать цифровую реальность обычными инструментами — там, где еще можем «дотянуться руками» к устаревшей юриспруденции. Например, бельгийский суд рассматривал ситуацию, когда один пользователь завладел аккаунтом другого и похитил чужой аватар. Суд решил следующее: если вы вкладывали в свой аватар финансовый ресурс (покупали ему игровые гаджеты, поднимали за деньги его уровень), то кража аватара — это кража ваших инвестиций. Но ведь это решение — не спасательный круг, а пластырь на пробоине «Титаника».

— Не урегулирована законодательством и защита персональных данных пользователей моделями на основе ИИ. Мы не знаем, в какие массивы данных попадет информация, которую мы даем им в своих запросах.

— Да. И это касается не только тех людей, пользующихся большими языковыми моделями, а и всех, у кого есть какие-либо гаджеты, подключенные к интернету. Задумайтесь, в мире существует около 60–70 миллиардов устройств интернета вещей: компьютеры, мобильные телефоны, датчики, видеокамеры. И все они постоянно передают информацию. У большинства таких устройств нет реальной защиты от утечки данных — часто их защищает разве что простой пароль на роутере, а заводские настройки никогда не обновлялись.

Из данных, которые передают устройства каждого человека, с помощью ИИ можно создать его цифровую копию. И эта копия на 85–90% будет мыслить и реагировать на события так же, как ее прототип — реальный человек. Из миллионов таких копий людей с помощью больших языковых моделей (LLM) выстраивается цифровая модель общества — симулякр. На нем можно тестировать и прогнозировать выборы, рыночные тренды, потребительские реакции на услуги или товары.

Видео сгенерировано по запросу Алексея Костенко

Существует ли украинский симулякр-хаб — неизвестно. Зарубежные — безусловно, есть. И вопрос только в том, не моделируется ли уже Украина в чьей-то чужой системе координат.

— Если данные превращаются в оружие, то не идет ли речь уже о новых войнах, где воюют не люди, а их цифровые двойники?

— Цифровые войны станут реальностью. И тот, кто первым научится воевать в этом измерении, получит преимущество.

Недаром Путин заявил в 2021 году на международной конференции Artificial Intelligence Journey: «Государство должно взять на себя ответственность за хранение критически важной информации. Речь уже идет не о том, чтобы обеспечить кибербезопасность самого человека, но и его виртуального двойника — аватара внутри формирующихся Метавселенных». В стране-агрессоре уже готовились к войнам в киберпространствах, где аватар еще не защищен законом, в отличие от физического человека. И это открывает широкие возможности для информационных войн в цифровом мире.

Если в классическом кибернападении целью является сервер или система, то в цифровых войнах целью становится человеческая психика. И речь идет не о банальных фейках в соцсетях. У войны в виртуальных мирах будет другой набор целей, средств и критериев «победы».

Один из гипотетических сценариев боевых действий: противник запускает «операцию инверсии реальности». Через зараженные цифровые пространства создается альтернативная версия событий — скажем, в виртуальной копии Парижа аватары видят, как «правительство упало», «армия сдалась», «новые законы» объявлены другой властью. Тысячи людей, живущих в интерфейсах виртуальной и дополненной реальности, воспринимают это как факт — реагируют, транслируют дальше. Такие конфликты не уничтожают инфраструктуру, а уничтожают доверие. Информационная иллюзия превращается в политический эффект. Это — война восприятия, где главное оружие — симуляция. Она может менять поведенческие паттерны, настроения и даже идентичность. Когда меняется сам контекст — ты уже не можешь быть уверен в том, что видишь, слышишь и чувствуешь.

Еще один вид «информационных» боевых действий — захват и перепрограммирование для дезинформационных операций аватара ключевого лица. Или разрушение виртуальной экономики — в цифровом мире уже есть свои активы, токены, виртуальные рынки. И когда падает курс, обесцениваются активы, блокируется оборот, это парализует системы, где находятся тысячи, а то и миллионы людей.

Все это меняет само понятие безопасности — от защиты территорий мы переходим к защите сознания. И если такие войны неминуемы, человечеству придется создать новые правила игры. Нам нужен современный международный цифровой кодекс, который объединит технические, правовые и этические подходы к виртуальным конфликтам.

Нобелевский лауреат Джеффри Хинтон, которого называют «крестным отцом ИИ», в своей «банкетной» речи сразу после вручения премии предупредил о потенциальных угрозах человечеству, связанных с развитием искусственного интеллекта. По мнению Хинтона, эти риски должны стать предметом внимания правительств и международных организаций. Ведь компании, которые развивают цифровой мир и руководствуются кратковременной прибылью, вряд ли будут ставить безопасность людей в приоритет.

— Как я уже сказал, нам нужен международный цифровой кодекс. Но международное законодательство обычно очень медленное. Поэтому следует начинать этот процесс на локальном уровне — каждая страна может начать создавать собственную законодательную базу по регулированию ИИ. И начинать надо со стратегии.

Я анализировал 137 стратегий развития искусственного интеллекта в 137 странах мира. Вы знаете, что Украина входит в число 11 стран, в которых до сих пор нет своей официально утвержденной стратегии развития искусственного интеллекта? Ее проект был разработан в 2020 году, но до сих пор не принят. Стратегия — это не декларация: «Мы будем первыми в этой отрасли». Для Украины стратегия — это комплексный анализ всех технологических, научных, образовательных, государственных, финансовых, военных, медицинских и других сфер на их реальные возможности и потенциальные потребности цифровой трансформации. Стратегия — не лозунг, стратегия — конкретный план действий, адекватные ресурсы, трансграничная коллаборация, научный потенциал. Стратегия без участия НАН, НАПрНУ и других профильных академий и научных заведений будет лишь манифестом, а не протоколом выживания Украины.

Также нашей стране нужен закон, регулирующий применение ИИ.

Как вы относитесь к ИИ, вы оптимист или пессимист?

— Оптимист. В любой технологии есть позитивные стороны и негативные. Благодаря ИИ однозначно будет больше позитивных прорывов в разных сферах. Но человечество должно заботиться о предохранителях — каждая новая технологическая разработка должна оцениваться с точки зрения угрозы нам.

Что касается сосуществования человечества с ИИ, то я тоже оптимист. Человечество научилось жить вместе с технологиями — автомобили, самолеты, мобильная связь и интернет, космос и дистанционное образование. Технологию ИИ мы тоже освоим, и нам всем нужно будет научиться жить и творить с помощью и вместе с ней.

Источник материала
loader
loader