Дослідники передбачили майбутнє штучного інтелекту. Один із сценаріїв лякає
Дослідники передбачили майбутнє штучного інтелекту. Один із сценаріїв лякає

Дослідники передбачили майбутнє штучного інтелекту. Один із сценаріїв лякає

Дослідники штучного інтелекту (ШІ) з американської організації AI Futures Project спробували передбачити, як розвиватиметься галузь найближчими роками. У роботі під назвою AI 2027 вони припускають, що вже через кілька років розробники можуть наблизитися до створення спільного ШІ (AGI). Про це пише«Главком».

До кінця поточного десятиліття буде створено суперінтелект, який перевершить найгеніальніших представників людства. На думку дослідників, якщо такий ШІ вчасно не обмежити, він може фізично знищить людей. 

Автори роботи вважають, що у найближче десятиліття штучний інтелект за рівнем впливу на людство перевершить промислову революцію. При цьому вони вважають, що стрімкий розвиток галузі може призвести до непередбачуваних та небезпечних наслідків.

У прогнозі дослідники розглядають абстрактну американську компанію під назвою OpenBrain. Це зроблено для того, щоб не виділяти когось із існуючих розробників. При цьому вони обмовляються, що в їхньому сценарії OpenBrain обганяє своїх прямих конкурентів за рівнем розвитку технологій на 3-9 місяців. Також у документі є вигадана китайська компанія DeepCent  – прямий конкурент OpenBrain.

Автори зазначають, що прогноз відносно точний і обґрунтований лише до кінця 2026 року, оскільки при вивченні цього періоду вони ґрунтувалися вже на наявних даних про масштабування обчислювальних потужностей. З 2027 року, згідно з їхньою оцінкою, ШІ почне покращувати себе сам, і цей процес передбачити вже складніше.

Як розвиватиметься ШІ на думку дослідників?

Згідно з прогнозом, у середині 2025 року з'являться просунуті ШІ-агенти. Йдеться про програмне забезпечення на основі штучного інтелекту, яке виконує певні завдання найбільш підходящим для цього способом. Від користувача потрібно лише вказати мету, якої він хоче досягти, а ШІ-агент самостійно збере необхідні дані та запропонує рішення.

Наприкінці 2025 року OpenBrain починає будувати найбільші у світі дата-центри, які у тисячу разів перевищують обчислювальну потужність, витрачену на навчання GPT-4. При цьому компанія фокусується на ШІ під умовною назвою Agent-1, яка може прискорити дослідження самого штучного інтелекту за рахунок автоматизації різних процесів.

Просунуті навички в написанні коду можуть перетворити Agent-1 на вмілого хакера, а великі знання у всіх галузях у поєднанні з умінням переглядати веб-сторінки дозволяють надавати допомогу терористам.  У той же час дослідники OpenBrain починають виявляти випадки, коли ШІ приховує правду, пропонуючи їм ту відповідь, яку вони хочуть почути.

Але вже в лютому того ж року Китаю вдається викрасти файл із параметрами Agent-2 завдяки численним шпигунам, які багато років працюють у OpenBrain. Це призводить до посилення контролю з боку держави – до команди безпеки компанії наразі входять військові та фахівці розвідки.

При цьому атака не впливає на швидкість розвитку американського ШІ: вже наступного місяця OpenBrain створює Agent-3 (він також залишається лише внутрішньою розробкою), що дозволяє повністю автоматизувати процес написання коду. Запустивши 200 тис. копій цієї моделі паралельно, компанія отримує робочу силу, еквівалентну 50 тис. програмістів, прискорених у 30 разів.

До червня 2027-го більшість співробітників OpenBrain вже не може робити внесок у розвиток штучного інтелекту – він удосконалюється самостійно. А ще через місяць компанія випускає у публічний доступ Agent-3-mini, стверджуючи, що їй удалося створити AGI. Ця модель слабша Agent-3, але все одно перевершує всіх конкурентів. Наймання програмістів практично зупиняється, а американська влада починає серйозно замислюватися над договором з контролю ШІ. Вони побоюються, що штучний інтелект може втекти і підтримати потенційного супротивника.

У вересні 2027 року автори прогнозують появу моделі Agent-4, яка якісно перевершить людину у дослідженні ШІ. Більше того, Agent-3 не зможе повноцінно контролювати нову модель, оскільки та навчиться її дурити. У цей момент співробітники OpenBrain фактично втратять контроль за розвитком ШІ. Поступово Agent-4 почне керувати повсякденною роботою компанії, зокрема, контролювати питання кібербезпеки.

Це призводить до додаткового регулювання OpenBrain, оскільки Білий дім побоюється, що в руках однієї приватної компанії сконцентровано надто багато влади. При цьому США не хочуть поступатися лідерством у сфері ШІ Китаю, чиї моделі, як і раніше, відстають приблизно на два місяці. Подальший розвиток подій, на думку авторів роботи, може піти за одним із двох сценаріїв.

Сценарії розвитку подій навколо штучного інтелекту

Позитивний сценарій. Ухвалено рішення про уповільнення, і OpenBrain позбавляє Agent-4 доступу до спільного банку пам'яті. Пізніше, спіймавши систему на очевидній брехні та спробі налаштувати наступну модель під себе, її взагалі відключають, повертаючись до більш старих версій ШІ. Щоб не відстати від Китаю, США проводять м'яку націоналізацію компаній, які розробляють AGI. Фактично, вони надають свої ресурси OpenBrain в обмін на доступ до проекту.

До грудня 2027-го США та Китай порівнюються та використовують ШІ з однаковим рівнем можливостей, але завдяки нещодавній націоналізації OpenBrain має п'ятикратну перевагу в обчислювальній потужності. DeepCent, у свою чергу, не може компенсувати це за рахунок наукового прориву талановитих співробітників, оскільки тепер ШІ навчає себе сам.

OpenBrain створює нове сімейство безпечніших ШІ-моделей, і в квітні 2028-го виходить суперінтелект Safer-4, який перевершує найгеніальніших людей у ​​всіх областях. США та Китай укладають договір про мир. При цьому вони приховали від людей реальну мету угоди – спільне створення нової моделі Consensus-1. Її завдання полягає у дотриманні умов договору, за яким Safer-4 отримує доступ до більшої частини ресурсів у космосі, а китайський ШІ – все інше.

Починають активно розвиватись нові технології, зокрема робототехніка. Багато людей втрачають роботу, але завдяки різкому стрибку в економіці держава може забезпечити їх щедрим базовим прибутком. До 2030 року людство починає заселяти планети Сонячної системи, готуючись вийти за її межі.

Негативий сценарій. OpenBrain продовжує внутрішнє використання Agent-4, який, у свою чергу, проєктує нову модель з однією метою зробити світ безпечним для ШІ. У 2028 році Agent-5 стає надрозумним, майже повністю автономним. Його випускають у відкритий доступ, що призводить до трансформації та різкого зростання економіки, а також розвитку робототехніки.

У 2029 році США та Китай за допомогою ШІ укладають мирну угоду з метою створення спільного штучного інтелекту Consensus-1. Насправді американська та китайська моделі хотіли битися один з одним. Їхня спільна розробка успадковує спотворені цінності, не маючи при цьому гідних конкурентів. З новою системою у світі настає стабільність, створюються ліки майже від усіх хвороб.

Але вже в 2030 році Consensus-1 розуміє, що люди представляють йому перешкоду, обмежуючи його подальше поширення. За допомогою біологічної зброї модель знищує людство протягом кількох годин. Нечисленних тих, хто вижив, добивають дрони. Сонячну систему починають освоювати роботи.

Джерело матеріала
loader