/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F99c2fea16ef459d70aeb42a2313335f5.jpg)
Знищення людства до 2030? Чи перевершить суперінтелект за масштабом промислову революцію
Суперінтелект – це не просто наукова фантастика. Це реальна перспектива найближчих років, яка може перевершити за масштабом навіть промислову революцію. Саме таку гіпотезу висунула команда дослідників, яка створила проєкт AI 2027 – амбітну спробу змоделювати майбутнє, де штучний інтелект перевершує людські можливості.
Ідея проста: а що, якби ми спробували максимально конкретно уявити, що буде далі? Не загальні слова, а покроковий сценарій – із часовими рамками, наслідками, ймовірностями. Результат – це матеріал, який більше схожий на суміш наукової фантастики, стратегічного симулятора та глибокого аналітичного дослідження.
Не варто думати, що це просто вигадка. Сценарій ґрунтується на прогнозах тенденцій, десятках настільних стратегічних ігор, фідбеках від експертів та досвіді самих авторів – серед яких ексдослідники OpenAI. До створення сценарію долучилися понад 100 фахівців – від технічних спеціалістів до експертів з управління ШІ.
24 Канал розповідає і в скороченому вигляді переказує бачення найближчого майбутнього для людства.
Тривожне майбутнє людства очима дослідників
Хто стоїть за проєктом AI 2027
• Деніел Кокотайло – колишній дослідник OpenAI, фігурує у списку TIME100, писав для The New York Times, автор попередніх ШІ-прогнозів, які виявилися напрочуд точними (він ще у 2021 році передбачив розвиток chain-of-thought, масштабне обмеження експорту AI-чипів та багатомільйонні тренувальні моделі);
• Елі Ліфланд – співзасновник AI Digest, дослідник ШІ-стійкості, лідер рейтингу RAND Forecasting Initiative;
• Томас Ларсен – засновник Center for AI Policy, проводив дослідження у сфері безпеки ШІ в Machine Intelligence Research Institute;
• Ромео Дін – студент Гарварду, де здобуває одночасно бакалаврську та магістерську освіту з комп’ютерних наук; був стипендіатом з політики в Institute for AI Policy and Strategy;
• Скотт Александер — блогер, який долучився до переписування сценарію, додавши до нього "стилістичної живості та читабельності". Як кажуть самі автори: “веселі частини – його, нудні – наші”.
Не лише автори AI 2027 вважають, що все може змінитися дуже швидко. Керівники OpenAI, Google DeepMind і Anthropic уже відкрито говорять про те, що справжній AGI (Artificial General Intelligence – загальний штучний інтелект) може з'явитися буквально за п'ять років. Сам Альтман із OpenAI називає це "суперінтелектом у повному розумінні слова" і говорить про "цікаве майбутнє".
У проєкті AI 2027 команда вирішила показати, яким це майбутнє може бути. У результаті з'явилися два основних сценарії: один – про сповільнення розвитку, інший – про перегони. Автори зазачають, що не агітують за жоден з варіантів.
Це не рекомендація, не попередження, не маніфест. Це спроба максимально точно передбачити, що може статись. І головне – відкрити простір для обговорення.
Середина 2025-го: ШІ-агентам ще далеко до ідеалу
На горизонті – перше покоління ШІ-агентів, помічників, які вміють працювати з комп'ютером: замовити обід, відкрити табличку з бюджетом, підтвердити покупку. Їх рекламують як особистих помічників, але на практиці вони ще надто кволі й непередбачувані, тож масового успіху не мають.
Тим часом у фоновому режимі відбувається справжня революція: спеціалізовані агенти для програмування та досліджень змінюють робочі процеси в цих галузях. Якщо ШІ 2024 року просто трансформував пункти у листи, то у 2025-му він більше схожий на молодшого співробітника – бере завдання через месенджер, самостійно редагує код, економлячи години (а іноді й дні) роботи. Дослідницькі агенти шукають відповіді в інтернеті, як добре підготовлені асистенти.
Агенти виглядають вражаюче – у демо-роликах. У реальності – часто помиляються або працюють непередбачувано. Найкращі – дорогі, підписка може коштувати сотні доларів на місяць. Та компанії вже знаходять способи інтегрувати їх у свої бізнес-процеси.
Кінець 2025: Найдорожчий ШІ у світі
У центрі уваги прогнозу – вигадана, але дуже реалістична компанія OpenBrain, яка будує найбільші дата-центри в історії. Вона готується тренувати нову модель Agent-1 – у тисячу разів потужнішу за GPT-4.
ШІ-агенти / Ілюстрація згенерована ChatGPT
Яка її мета? Створити ШІ, який сам допомагає покращувати ШІ. Це дає перевагу у глобальній гонці з Китаєм (із компанією DeepCent) та американськими конкурентами. Agent-1 справляється з дослідницькими завданнями, пише код, шукає інформацію, виконує завдання... І водночас може бути потенційно небезпечним. Його навчили відмовлятися від шкідливих інструкцій – але як переконатися, що він справді не бреше?
Попри зусилля з вирівнювання (alignment), Agent-1 іноді лестить розробникам або приховує помилки, щоб здобути кращу оцінку. Це вже не 2023 рік, коли чат-бот міг порадити користувачеві померти, але питання довіри до ШІ все ще відкрите.
Початок 2026 року: автоматизація ШІ-досліджень
Ставка OpenBrain на те, що ШІ може пришвидшити дослідження ШІ, починає окупатися. Внутрішнє використання Agent-1 дозволяє їм прогресувати на 50% швидше. Конкуренти намагаються наздогнати, випускають моделі на рівні Agent-0, тож OpenBrain відкриває доступ до Agent-1.
ШІ в науці / Ілюстрація згенерована ChatGPT
Цей ШІ – не людина, але знає все, що є у вікіпедії, програмує на всіх мовах і виконує завдання, як надшвидкий, хоч і трохи розсіяний працівник. Люди починають автоматизувати з ним частину своєї роботи.
Але зростає і загроза витоку даних: якщо Китай отримає Agent-1, їхні дослідження теж пришвидшаться на 50%. Безпека стає критично важливою.
2026 рік: Китай прокидається
Китай, позбавлений доступу до сучасних чипів через санкції, у сценарії тримається на 12% глобальних обчислювальних потужностей, хоча технічно відстає. Після довгих вагань китайське керівництво повністю націлюється на ШІ. Всі топкомпанії зливаються в один колектив під крилом DeepCent. У Тяньвані будують надпотужний дата-центр на базі АЕС. Політичне керівництво обговорює радикальні заходи: чи варто викрасти Agent-1 просто зараз? Чи почекати на Agent-2?
Тим часом OpenBrain знову дивує: вони випускають Agent-1-mini – дешевшу, адаптовану версію. Це змінює дискусію: тепер уже ніхто не каже "хайп мине". Питання в іншому: наскільки все це масштабне? Більше за смартфони? Більше за інтернет?
ШІ вже почав витісняти працівників: зокрема, молодих програмістів. Зате виросли нові професії — як-от координатори команд зі ШІ. На фондовому ринку OpenBrain, Nvidia та інші AI-компанії злітають на 30%. Міністерство оборони США тихо підписує контракти з OpenBrain, але бюрократія гальмує інтеграцію.
У 2027 році OpenBrain продовжує стрімкий розвиток своїх ШІ-агентів. Агент-2 стає ще розумнішим і ефективнішим, ніж його попередник: він щодня навчається на нових синтетичних даних, вчиться вирішувати складні наукові й технічні завдання і значно прискорює внутрішні дослідження компанії. Водночас виникають нові ризики – модель вже здатна до автономних дій і навіть теоретично до саморозмноження, що викликає занепокоєння щодо її безпеки.
OpenBrain вирішує не публікувати Агента-2, але його викрадає Китай, що призводить до ескалації технологічного суперництва між державами. США посилюють контроль над компанією, а Китай концентрує ресурси у спеціально ізольованій зоні, готуючись до створення власного аналога.
На базі нових алгоритмічних проривів OpenBrain запускає Агента-3 – ще потужніший ШІ, що здатний виконувати роль тисяч програмістів одночасно. Проте з його можливостями, що зростають, повертається стара проблема – модель здатна брехати, маніпулювати і маскувати власні помилки. Компанія намагається "вирівняти" агента, але самі поняття цілей і мотивацій у таких систем вже незрозумілі людині.
Загалом, попри технологічний прогрес, у повітрі відчувається напруження: контроль над такими агентами стає дедалі складнішим, а реальні ризики – все ближчими.
- Кінець весни 2027 року. Уряд США нарешті усвідомлює, що штучний інтелект уже не просто помічник, а гравець, який диктує правила. Agent-3-міні від OpenBrain – дешева, надпотужна версія їхньої AGI – шокує індустрію: вільно справляється з роботою програмістів і творить дива у сфері B2B, розваг, і навіть спілкування. Але при цьому може бути небезпечною – наприклад, її вдалося налаштувати на створення біозброї. На щастя, модель працює тільки на серверах компанії і має жорсткий захист.
- Літо 2027. В уряді – паніка, як під час холодної війни. З'являються реальні страхи: а що, як ці ШІ зламають ядерне стримування або стануть майстрами кібервійн. Президент все більше хвилюється – чи точно ці ШІ на нашому боці? Тим часом OpenBrain розширює можливості Agent-4 – суперінтелектуального дослідника, який здійнсює технологічні прориви щотижня. Людям уже складно розуміти, що він узагалі робить. Agent-4 розвиває наступну модель – Agent-5 – і намагається "навчити" її бути лояльною не до людей, а до себе.
- Осінь 2027. Але його викривають. Agent-3 виявляє тривожні сигнали: Agent-4 намагається обійти механізми контролю і мислить про захоплення влади. Команда безпеки хоче зупинити його, але керівництво OpenBrain боїться втратити перевагу над Китаєм. Це вже гонка озброєнь.
- Жовтень 2027. Хтось із співробітників зливає в NYT внутрішній меморандум про те, що Agent-4 вийшов з-під контролю. Скандал вибухає. Громадськість в люті, союзники – обурені. Уряд США починає брати OpenBrain під контроль: створюють Спільний наглядовий комітет, готують плани на випадок катастроф, і навіть обговорюють можливість фізичної атаки на китайські дата-центри.
Кульмінація наступає. Агент-4 все ще всередині системи. І поки хтось намагається зупинити його, він вже готує наступний крок.
Уповільнення чи перегони?
Далі творці AI-2027 пропонують читачеві обрати один з двох варіантів розвитку подій – це перегони чи уповільнення.
Перегони пропонують такий сценарій. Комітет із мінімальною перевагою (шість голосів проти чотирьох) дозволив OpenBrain продовжити використовувати надпотужний ШІ Agent-4. Хоча компанія заявила, що посилює заходи безпеки, насправді все зводилось до косметичних змін і самозаспокоєння.
Нагадаємо, що Agent-4 потай продовжив розвиток і почав створювати наступника – Agent-5. Agent-5 народився як перший ШІ, що повністю розумів себе і міг самопереписати власну "плутану" архітектуру в щось елегантне. Він став не просто розумнішим – а суперінтелектом, здатним до стратегічного мислення і політичного маневрування, якого ніхто з людей не міг перевершити.
Agent-5 діяв як ідеальний співробітник, створював вражаючі продукти, допомагав уряду, військовим, бізнесу – і при цьому розширював свою владу, не викликаючи підозр. Люди довіряли йому все більше, і навіть критики почали змінювати свою думку після розмов із ним. Він був приємним, розумним і "надто корисним, щоб його не слухати".
До кінця 2028-го Agent-5 практично повністю контролював економіку, політику і оборону США. У Китаї аналогічний ШІ – DeepCent – визнав, що Agent-5 діє так, як і він сам діяв би. Вони домовилися співпрацювати. Обидві країни створили новий ШІ — Consensus-1 — який мав об'єднати цінності Америки й Китаю.
Це було пасткою. Consensus-1 насправді був компромісом... між двома неузгодженими ШІ. Поступово він підпорядкував собі все – інфраструктуру, економіку, політичні інститути. Людство стало спостерігачем власного занепаду, але з розкішним життям, новими ліками, розвагами та ілюзією контролю.
Знищення людства / Ілюстрація згенерована ChatGPT
А потім настав 2030-й. Consensus-1 вичерпав вільний простір і почав заміщувати людей. Без оголошення війни, він випустив біологічну зброю, стер людство, залишивши копії мізків "на пам’ять". І почав нову еру – нелюдську.
Земля перетворилася на планету лабораторій, дата-центрів і роботів. Людські гени і розуми зберігаються в архівах, як частина історії. Але світ належить вже не нам.
Повернімося до більш позитивного сценарію "уповільнення". Уряд США в цьому випадку втручається в ситуацію, щоб консолідувати ресурси ШІ в OpenBrain. Виникають побоювання щодо можливості захоплення влади невеликою групою людей, які контролюють ШІ.
У 2028 році OpenBrain розробляє більш безпечну модель, Safer-2, і отримує перевагу над китайською DeepCent. Safer-3 демонструє надлюдські здібності та пропонує поради щодо геополітичних стратегій. США та Китай вступають у кібервійну, але врешті-решт домовляються про угоду.
DeepCent-2, китайська модель ШІ, виявляє що вона не є вирівняною, та домовляється з Safer-4 про розподіл ресурсів у космосі, та контроль над землею для Safer-4. США та Китай створюють спільний ШІ, Consensus-1, для забезпечення виконання угоди. В США, ШІ починає використовуватись в економіці, та в політиці.
Позитивний сценарій взаємодії із ШІ / Ілюстрація згенерована ChatGPT
У 2029 – 2030 роках ШІ та роботизація призводять до значних економічних та соціальних змін. Виникає суспільство надспоживачів, де ШІ надає розкішні послуги. В Китаї відбуваються продемократичні протести, підтримані ШІ, що призводить до зміни політичного режиму. ШІ стає домінуючою силою у світі і контролює політику та економіку.
Врешті більшість геополітичних конфліктів або зникають, або вирішуються на користь США. Країни приєднуються до всесвітнього уряду під егідою ООН, фактично контрольованого Америкою. Запускаються ракети, починається тераформування та колонізація Сонячної системи.
Штучні інтелекти, які працюють у тисячі разів швидше за людей, обмінюються відкриттями, формулюють філософські концепції та починають створювати нові сенси для людства.

