Світові лідери технологій та громадські діячі закликають заборонити створення “суперінтелекту”
Світові лідери технологій та громадські діячі закликають заборонити створення “суперінтелекту”

Світові лідери технологій та громадські діячі закликають заборонити створення “суперінтелекту”

Світові лідери технологій та громадські діячі закликають заборонити створення “суперінтелекту”

Серед понад 1000 підписантів співзасновник Apple і принц Гаррі.

Понад 1000 відомих науковців, підприємців і громадських діячів підписали відкриту заяву із закликом до негайної заборони створення так званого “суперінтелекту” — гіпотетичної форми штучного інтелекту, яка перевищує людський розум у більшості когнітивних завдань, повідомляє CNBC. Серед підписантів — співзасновник Apple Стів Возняк, засновник Virgin Group Річард Бренсон, колишня президентка Ірландії Мері Робінсон, а також принц Гаррі та Меган Маркл.

Документ, опублікований 22 жовтня, станом на 15:00 об’єднав 1009 підписантів, включаючи провідних експертів зі штучного інтелекту — Йошуа Бенджіо, Джеффрі Хінтона та Стюарта Рассела, яких вважають засновниками сучасної науки ШІ. Автори заяви вимагають ввести мораторій на розробку надрозумних систем доки не буде наукового консенсусу щодо безпечності таких технологій та їхньої здатності до контролю з боку людини.

Ініціатива з’явилася на тлі зростальної конкуренції між технологічними гігантами — OpenAI, Meta, xAI та іншими — у розробці моделей нового покоління. Meta навіть створила підрозділ під назвою Meta Superintelligence Labs.

Підписанти заяви попереджають, що розвиток суперінтелекту може призвести до глибоких суспільних потрясінь. Наприклад, до втрати роботи через економічне “старіння” до загроз свободам, громадянським правам і навіть потенційного зникнення людства. 

“Перш ніж дозволити створення подібних систем, потрібно забезпечити громадську підтримку та наукове розуміння того, як безпечно їх розробляти і контролювати”, — йдеться у зверненні.

До ініціативи приєдналися представники різних сфер — від науковців і технологічних лідерів до релігійних діячів, медійників і колишніх політиків. Серед підписантів — колишній голова Об’єднаного комітету начальників штабів США Майк Маллен, ексрадниця з національної безпеки Сьюзен Райс, а також медійні союзники Дональда Трампа Стів Беннон і Гленн Бек.

У документі наводяться результати нещодавнього опитування Інституту майбутнього життя, згідно з яким лише 5% американців підтримують нинішні темпи нерегульованого розвитку штучного інтелекту. Водночас 64% респондентів вважають, що створення “надрозумного ШІ” має бути заборонене, доки не буде доведено його повну безпечність, а 73% виступають за жорстке державне регулювання цієї сфери.

Професор Йошуа Бенджіо зазначив, що системи штучного інтелекту можуть перевершити людей у більшості завдань уже впродовж кількох років; “Щоб безпечно просуватися до суперінтелекту, потрібно науково довести, як створювати системи, що принципово не можуть завдати шкоди людині — ні через помилки, ні через зловмисне використання”. За його словами, суспільство має отримати більше впливу на рішення, які визначатимуть майбутнє людства.

Попередження про ризики суперінтелекту не нові. Ще у 2015 році генеральний директор OpenAI Сем Альтман писав, що розвиток надлюдського машинного інтелекту “ймовірно, є найбільшою загрозою для подальшого існування людства”. А Ілон Маск цього року заявив у подкасті, що ймовірність “знищення людства через штучний інтелект” становить приблизно 20%.

Розвиток штучного інтелекту несе глобальні цивілізаційні зміни, створюючи не лише нові професії, але й формуючи цифрове суспільство, де з’являються цифрові суб'єкти, потенційно наділені правовим статусом. У статті “Цифрові судді, штучне суспільство і віртуальні громадяни: як ШІ змінює цивілізацію” доктор юридичних наук Олексій Костенко розповідає Оксані Онищенко, що ШІ створює момент юридичної сингулярності, вимагаючи від людства розробки нового міжнародного цифрового кодексу та національних стратегій для регулювання загроз, як-от використання цифрових двійників для кібервійн та маніпуляцій свідомістю.

Джерело матеріала