Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію
Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію

Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію

Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію

Людство винайшло штучний інтелект — і тепер намагається зрозуміти, як з ним жити. Ми вже не можемо почуватися «царями природи» — поруч з’явився штучний конкурент, здатний навчатися, аналізувати й приймати рішення і навіть перевершувати нас інтелектуально. Як з ним співіснувати та як він вже впливає на майбутнє людства — ZN.UA говорило з доктором юридичних наук, завідувачем Наукової лабораторії імерсивних технологій і права НАН України Олексієм Костенком.

Це друга частина інтерв’ю. У першій ми з'ясували, як «влаштований» штучний інтелект та чому він лише вдає, що нас розуміє.

Пане Олексію, як на вашу думку, чи стане розвиток ШІ загрозою для людського інтелекту? За прогнозами аналітиків, він поступово зможе замінити людей у професіях, пов'язаних з інтелектуальною працею.

— Такі футуристичні страшилки з’являються час від часу. З розвитком штучного інтелекту деякі професії справді відійдуть у минуле, натомість виникнуть нові. Як зникли професії, пов'язані з гаджетами минулої епохи: майстри з ремонту дискових телефонів чи телевізорів марки «Огонек», сервісні служби холодильників «Минск».

За даними Всесвітнього економічного форуму, до 2030 року автоматизація поглине близько 92 мільйонів робочих місць. Але з’явиться приблизно 170 мільйонів нових — переважно у сферах, пов’язаних зі штучним інтелектом, великими даними й програмуванням. І якщо ви відкриєте сторінку з вакансіями OpenAI, Microsoft чи будь-якої іншої корпорації, яка працює з ШІ, — ви побачите там дуже цікаві назви нових професій.

Тож інтелектуальна праця не зникне. Навпаки, ті, хто здатен генерувати нові ідеї, гіпотези, задачі, соціальні конструкції, перейдуть до класу привілейованих. Якщо ти можеш створювати те, що машина не здатна згенерувати, — ти будеш «білою кісткою» цивілізації. Як на золотих копальнях шукають золото, так у майбутньому держави шукатимуть людей, здатних народжувати нові ідеї. І підтримуватимуть їх матеріально й морально. Бо інформацію треба не тільки споживати, а й генерувати. Це головне.

Згенеровано на запит Олексія Костенко

Але ти не станеш конструктором майбутнього, якщо не вчитимешся постійно. Якщо зупинишся, якщо перестанеш оновлювати базу знань, яку носиш на плечах. І якщо не навчишся конструювати ці знання — за допомогою тих самих великих мовних моделей.

— Отже, у перегонах «технології vs людина» людина не програє?

— Так. Але, на мою думку, цифрове суспільство навряд чи залишиться жорстко антропоцентричним. У ньому вже з’явилисяцифрові суб’єкти — аватари, електронні особистості, роботи-гуманоїди, які за рівнем інтелекту потенційно можуть у сотні разів перевершувати людину, якщо ними керуватиме штучний інтелект вищого порядку — AGI (Artificial General Intelligence). Це, умовно кажучи, «суперGPT», здатний не просто відповідати на запити, а самостійно генерувати ідеї, приймати рішення й діяти: укладати контракти, призначати лікування, розробляти технології.

Відео згенеровано на запит Олексія Костенка

Уже сьогодні ведуться дискусії про можливість частково наділити таких цифрових суб’єктів правами людини. Наприклад, у Євросоюзі обговорюють ідею надати AGI-агентам правовий статус, що дозволив би їм діяти від імені корпорацій: підписувати угоди, вести переговори, розпоряджатися активами, навіть брати участь у судових процесах. Фактично йдеться про спробу зробити ШІ не просто інструментом, а самостійним учасником правових відносин. І вже зараз є певні кроки в цьому напрямку.

Так, наприклад, у жовтні 2025 року уряд Казахстану зробив крок, якого поки що не наважилися зробити ані в США, ані в країнах Європейського Союзу: до складу ради директорів державного інвестиційного фонду «Самрук-Казина» офіційно увійшов штучний інтелект. Його ім’я — SKAI, або Samruk-Kazyna Artificial Intelligence. Його повноваження — повноцінне право голосу при ухваленні рішень. Фонд управляє активами на понад 81 мільярд доларів. І тепер один із голосів, що визначають їхнє майбутнє, належить не людині.

SKAI функціонує на базі суперкомп’ютера Al Farabium з архітектурою NVIDIA. Він ізольований від зовнішніх мереж, навчається виключно на внутрішніх даних фонду та аналізує всі рішення, ухвалені радою за останні півтора десятиліття. Його роль — не лише аналітика. Він покликаний виявляти помилки, прогнозувати сценарії та пропонувати нові стратегії.

— У деяких країнах успішно функціонують «цифрові судді». Як це відбувається?

— Така система працює в Бразилії: ШІ готує до розгляду справи, проводить попередній аналіз, шукає прецеденти, формує проєкт рішення. А потім його затверджує суддя. Завдяки цьому один суддя за рік може розглядати понад 30 тисяч адміністративних справ. У Китаї є не лише «цифровий суд», а й «цифрова прокуратура», щоправда, вона також розглядає лише ті справи, які не пов'язані з завданням шкоди людині.

— До речі, про суди. Відомі випадки, коли люди подають до суду на ШІ. Так, у США батьки підлітка позиваються до компанії-розробника ChatGPT та її генерального директора. Їхній син скоїв суїцид за порадою цієї мовної моделі. Батьки вважають, що розробник не вжив належних заходів безпеки та не запровадив механізмів втручання на випадок, коли ШІ дає небезпечні для життя поради.

— Це складні питання. До кого позиватися — чи тільки до розробника мовної моделі, а чи й до того, хто неправильно написав промпт (задачу) для ШІ? Хто взагалі несе відповідальність за злочини, скоєні цифровими суб'єктами, — користувач, платформа, творець, інфраструктурний провайдер або держава?

Неврегульованих питань щодо ШІ багато. У праві, як і у всіх сферах суспільного життя, настав момент сингулярності — коли старі підходи не діють. Адже штучний інтелект, цифровий світ (Метасвіт), електронна юрисдикція змінюють саму природу соціальної взаємодії. Право майбутнього потребує не косметичного ремонту та «оновлення норм», а створення нової логіки юридичної дії.

І поки ця нова логіка лише формується, ми намагаємося врегульовувати цифрову реальність звичними інструментами — там, де ще можемо «дотягнутися руками» застарілої юриспруденції. Наприклад, бельгійський суд розглядав ситуацію, коли один користувач заволодів акаунтом іншого й викрав чужого аватара. Суд вирішив так: якщо ви вкладали у свого аватара фінансовий ресурс (купували йому ігрові гаджети, піднімали за гроші його рівень), то викрадення аватара — це викрадення ваших інвестицій. Але ж це рішення — не рятівне коло, а пластир на пробоїні «Титаніка».

— Не врегульовано законодавством і захист персональних даних користувачів моделями на основі ШІ. Ми не знаємо, в які масиви даних потрапить інформація, яку ми їм даємо у своїх запитах.

— Так. І це стосується не лише тих людей, що користуються великими мовними моделями, а й усіх, хто має будь-які гаджети, підключені до інтернету. Замисліться, у світі існує близько 60–70 мільярдів пристроїв інтернету речей: комп’ютери, мобільні телефони, датчики, відеокамери. І всі вони постійно передають інформацію. Більшість таких пристроїв не мають реального захисту від витоку даних — часто їх захищає хіба що простий пароль на роутері, а заводські налаштування ніколи не оновлювалися.

З даних, які передають пристрої кожної людини, за допомогою ШІ можна створити її цифрову копію. І ця копія на 85–90% міркуватиме та реагуватиме на події так само, як її прототип — реальна людина. З мільйонів таких копій людей за допомогою великих мовних моделей (LLM) вибудовується цифрова модель суспільства — симулякр. На ньому можна тестувати й прогнозувати вибори, ринкові тренди, споживчі реакції на послуги чи товари.

Відео згенеровано на запит Олексія Костенка

Чи існує український симулякр-хаб — невідомо. Закордонні — безумовно, є. І питання лише в тому, чи не моделюється вже Україна в чиїйсь чужій системі координат.

— Якщо дані перетворюються на зброю, то чи не йдеться вже про нові війни, де воюють не люди, а їхні цифрові двійники?

— Цифрові війни стануть реальністю. І той, хто першим навчиться воювати в цьому вимірі, отримає перевагу.

Недаремно Путін заявив 2021 року на міжнародній конференції Artificial Intelligence Journey: «Государство должно взять на себя ответственность за хранение критически важной информации. Речь уже идет не о том, чтобы обеспечить кибербезопасность самого человека, но и его виртуального двойника — аватара внутри формирующихся Метавселенных». У країні-агресорці вже готувалися до воєн у кіберпросторах, де аватар ще не захищений законом, на відміну від фізичної людини. І це відкриває великі можливості для інформаційних воєн у цифровому світі.

Якщо у класичному кібернападі метою є сервер чи система, то у цифрових війнах метою стає людська психіка. І йдеться не про банальні фейки в соцмережах. Війна у віртуальних світах матиме інший набір цілей, засобів та критеріїв «перемоги».

Один із гіпотетичних сценаріїв бойових дій: противник запускає «операцію інверсії реальності». Через заражені цифрові простори створюється альтернативна версія подій — скажімо, у віртуальній копії Парижа аватари бачать, як «уряд впав», «армія здалася», «нові закони» оголошені іншою владою. Тисячі людей, що живуть у інтерфейсах віртуальної та доповненої реальності, сприймають це як факт — реагують, транслюють далі. Такі конфлікти не знищують інфраструктуру, а знищують довіру. Інформаційна ілюзія перетворюється на політичний ефект. Це — війна сприйняття, де головна зброя — симуляція. Вона може змінювати поведінкові патерни, настрої та навіть ідентичність. Коли змінюється сам контекст — ти вже не можеш бути впевненим у тому, що бачиш, чуєш і відчуваєш.

Ще один вид «інформаційних» бойових дій — захоплення й перепрограмування для дезінформаційних операцій аватара ключової особи. Або руйнація віртуальної економіки — у цифровому світі вже є свої активи, токени, віртуальні ринки. І коли обвалюється курс, знецінюються активи, блокується обіг, це паралізує системи, в яких перебувають тисячі, а то й мільйони людей.

Усе це змінює саме поняття безпеки — від захисту територій ми переходимо до захисту свідомості. І якщо такі війни неминучі, людству доведеться створити нові правила гри. Нам потрібен сучасний міжнародний цифровий кодекс, що поєднує технічні, правові та етичні підходи до віртуальних конфліктів.

Нобелівський лауреат Джеффрі Гінтон, якого називають «хрещеним батьком ШІ», у своїй «бенкетній» промові одразу після вручення премії попередив про потенційні загрози людству, пов’язані з розвитком штучного інтелекту. На думку Гінтона, ці ризики мають стати предметом уваги урядів і міжнародних організацій. Адже компанії, які розвивають цифровий світ і керуються короткостроковим прибутком, навряд чи ставитимуть безпеку людей у пріоритет.

— Як я вже сказав, нам потрібен міжнародний цифровий кодекс. Але міжнародне законодавство зазвичай дуже повільне. Тому варто починати цей процес на локальному рівні — кожна країна може почати створювати власну законодавчу базу щодо регулювання ШІ. І починати треба зі стратегії.

Я аналізував 137 стратегій розвитку штучного інтелекту у 137 країнах світу. Ви знаєте, що Україна входить у число 11 країн, які досі не мають власної офіційно затвердженої стратегії розвитку штучного інтелекту? Її проєкт був розроблений 2020 року, але досі не ухвалений. Стратегія — це не декларація: «ми будемо першими в цій галузі». Для України стратегія — це комплексний аналіз всіх технологічних, наукових, освітніх, державних, фінансових, військових, медичних та інших сфер на їхні реальні можливості й потенційні потреби цифрової трансформації. Стратегія — не лозунг, стратегія — конкретний план дій, адекватні ресурси, транскордонна колаборація, науковий потенціал. Стратегія без участі НАН, НАПрНУ та інших профільних академій та наукових закладів буде лише маніфестом, а не протоколом виживання України.

Також нашій країні потрібен закон, який регулює застосування ШІ.

Як ви ставитеся до ШІ, ви оптиміст чи песиміст?

— Оптиміст. У будь-якій технології є позитивні сторони й негативні. Завдяки ШІ однозначно буде більше позитивних проривів у різних сферах. Але людство має піклуватися про запобіжники — кожна нова технологічна розробка має оцінюватися з точки зору загрози нам.

Щодо співіснування людства з ШІ я теж оптиміст. Людство навчилося жити разом із технологіями — автомобілі, літаки, мобільний зв'язок та інтернет, космос і дистанційна освіта. Технологію ШІ ми також освоїмо, і нам всім треба буде навчитися жити та творити з допомогою та разом із нею.

Джерело матеріала