/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F6200d9c42652deb1f3437b338f3a7644.jpg)
Перевершує людський: що за надлюдський штучний інтелект від Google та OpenAI і чому є загрозою
Штучний загальний інтелект (AGI, Artificial General Intelligence) – це гіпотетична форма машинного інтелекту, яка володіє загальними здібностями, порівнянними з людськими. Простими словами – та сама класична "лякалка", за сценарієм якої людство нарешті винаходить штучний інтелект, розумніший за людину. Штучний загальний інтелект останніми роками згадується все частіше. Наприклад, у 2023 році дослідники Microsoft називали уже застарілу версію GPT-4 прикладом "іскор AGI", а OpenAI анонсувала наступні моделі як такі, що йдуть "на шляху до AGI". Про це писали у Scientific American.
За словами самого Сема Альтмана, голови OpenAI, досягнення рівня штучного суперінтелекту може відбутися через "кілька тисяч днів". Однак, попри медійну увагу і оптимістичні прогнози, поняття AGI все ще залишається розпливчатим, а термін є предметом гострих дискусій серед фахівців.
24 Канал поговорив із експертом зі штучного інтелекту, керівником AI R&D Center WINSTARS.AI Дмитром Софиною та розповідає про те, що таке AGI та чи є небезпека в штучному інтелекті, що перевершує людський.
Штучний інтелект, вищий за людський: що таке AGI?
У широкому розумінні AGI позначає штучну систему з можливостями, близькими або вищими за людські. Наприклад, за визначенням OpenAI, AGI – це "високоавтономні системи, які перевершують людей у більшості економічно важливих задач".
Nature зазначає, що точного консенсусного визначення немає, але зазвичай під AGI розуміють систему здатну до людського рівня "міркування, узагальнення, планування і автономії". Простими словами, AGI – це штучний інтелект, який може розв’язувати задачі у різних сферах так, як це робить людина, без вузьких обмежень.
Ідея AGI виникла як відповідь на обмеженість вузьких, спеціалізованих ШІ-систем – коли шаховий комп'ютер Deep Blue переміг шахіста Каспарова, виникло занепокоєння, що вчені зосереджуються лише на задачах-одиночках. Поняття AGI повернуло акцент на широкі здібності машин.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Ff7b14bea90765f36a3e68d0073fe1f70.jpg)
Мелані Мітчелл
професорка та дослідниця з Інституту Санта-Фе
Термін "штучний загальний інтелект" став популярним серед комп’ютерних науковців наприкінці 1990-их – на початку 2000-их років. Це було своєрідною реакцією на проєкти на кшталт Deep Blue – шахової системи, яка перемогла гросмейстера Гаррі Каспарова та інших чемпіонів-людей. Частина спільноти вважала, що їхні колеги надто зосередилися на навчанні машин виконанню вузьких завдань, наприклад ігор, і відходять від головної мети – створення універсальних, подібних до людини інтелектуальних систем. AGI використовували як спробу повернутися до цього початкового завдання.
Мета створення AGI – побудувати таку систему, яка могла б не лише, наприклад, грати в шахи або генерувати зображення, а й комплексно розв'язувати різноманітні задачі, вчитися на льоту і адаптуватися до нових ситуацій.
Стів Возняк, співзасновник Apple, пропонував "тест з кавою" – коли комп’ютер вперше зможе зайти в незнайомий дім і заварити там чай чи каву – тоді, на думку Возняка, можна говорити про загальний інтелект.
Проте вже зараз відомо, що сучасні ШІ, навіть глибокі нейромережі, не в змозі відчути сенс виконуваних дій, вони лише оперують статистичними закономірностями. Так, ШІ-експертка Сара Гукер (Cohere for AI) зауважує Wired, що моделям, які є "дуже вправними у генеруванні мови", не обов’язково володіти людським типом мислення або розуміння.
З іншого боку, деякі науковці, наприклад Алісон Гопнік з Каліфорнійського університету, взагалі ставлять під сумнів саму ідею "загального інтелекту", називаючи AGI "хорошим маркетинговим слоганом", оскільки жоден вид інтелекту не може вирішувати буквально будь-які задачі, пише Scientific American.
В чому ж різниця між AGI і генеративним ШІ?
Останнім часом уявлення про AGI часто плутають із досягненнями сучасних "генеративних" моделей — таких, що створюють текст, зображення, відео тощо. Наприклад, наявні чатботи для тексту чи створення картинок здатні генерувати вражаючий контент, проте вони залишаються вузькоспеціалізованими. Ці моделі фактично є машинами для передбачення – вони навчені підбирати наступне слово або піксель на основі великої кількості даних, але не здатні до справжнього людського рівня креативності чи логічного мислення. Тобто сучасні генеративні ШІ-моделі можуть блискуче передбачати те, що має бути на виході (наприклад, скласти вірш або змалювати картину), але вони не розуміють зміст чи причини подій так, як люди.
Ще простіше – генеративні моделі навчені на великих датасетах конкретних форматів (текст або зображення) і гарно імітують людські відповіді в цих межах. AGI ж мав би оперувати усім спектром людського досвіду. Наприклад, McKinsey зазначає, що моделі на кшталт ChatGPT чи DALL-E краще передбачають відповіді на конкретні запити, але вони не "досягають людського рівня у креативності, логічному мисленні чи сприйнятті. GPT чи DALL-E не вміють самостійно ставити мету, виконувати будь-яку незнайому задачу чи діяти в реальному світі поза рамками своєї тренувальної області".
Навіть поставивши GPT-4 у тіло робота з камерою, ми не отримаємо універсального помічника. Річ у тому, що для роботів немає такої кількості готових даних, як для текстів чи фото – інтернет не містить мільярдів сценаріїв взаємодії з фізичним світом. Фізичне середовище дуже складне, і сучасні боти успішні лиш у дуже обмежених ділянках (наприклад, ними можуть запрограмувати пересування в знайомому приміщенні, але зняття кришки з контейнера може виявитися незнайомим викликом). Таким чином, наявність ChatGPT не робить машину загальним інтелектом – зараз це лише розширений "мовний" сервіс, а не повноправний розумний агент.
Який сучасний стан досліджень AGI?
Наразі дослідження AGI переважно ведуть великі компанії та високопрофесійні лабораторії.
- Серед них OpenAI (США) стоїть на чолі пошуків; її співзасновники оголосили головною місією компанії створення AGI, корисного для всього людства. Самі проєкти OpenAI (серія GPT, модель DALL-E тощо) спрямовані на поступове наближення до AGI.
- Microsoft, інвестуючи в обчислювальні потужності та партнера OpenAI, також заявляє про інтерес до AGI і вкладатиме сотні мільярдів доларів у нові дата-центри, щоб досягти створення AGI.
- Інший ключовий гравець – Google DeepMind (Велика Британія). Її керівник Деміс Хассабіс займається AGI уже понад 15 років – DeepMind у 2010-х вирішив складні ігрові та наукові задачі (AlphaGo, AlphaFold), проте тепер фокусується на загальній меті. За словами Хассабіса, "ми майже на правильному шляху": за його оцінкою, є близько 50% шансів отримати AGI у наступні 5–10 років, пише Wired. Він визначає AGI як систему, що володіє усіма людськими когнітивними здібностями, і водночас визнає можливі страшні наслідки для ринку праці. Гугл підтримує цю гонку не лише DeepMind, а й ширшими інвестиціями у дослідження ШІ (сукупно — сотні мільярдів доларів по всьому світу
- Менш відомий, але дуже важливий учасник – Anthropic (США), заснований колишніми співробітниками OpenAI Даніелою та Даріо Амодеї. Вони пішли саме через питання безпеки AGI – Anthropic спеціалізується на розробці "благородного ШІ", що ніколи не зійде зі шляху "доброї волі". Компанія вже представила свій чат-бот Claude і відкрито говорить про мету збудувати AGI "настільки безпечним, етичним та дієвим, щоб інші зрозуміли користь такого підходу".
Крім корпоративних гігантів, AGI досліджують академічні та незалежні групи. Деякі університети та стартапи зосереджені на альтернативних підходах, пише Nature. Наприклад, команда Йошуа Бенджіо з Монреальського університету шукає архітектури для побудови відповідних моделей світу, які дозволять машині робити узагальнення і планувати.
А теоретик Карл Фрістон з Каліфорнійського університету UCL виступає за невеликі, енергоефективні системи, здатні самі обирати релевантні дані зі свого середовища. Науковці з численних дисциплін – від нейронаук до когнітивної психології – залучені до дискусії про AGI, аби з’ясувати, як визначати реальні можливості сучасних моделей і які прориви потрібні далі.
Важливо! Не можна не згадати величезні інвестиції в цю галузь. Financial Times повідомляє, що великі технологічні компанії (Microsoft, Alphabet, Amazon, Meta) у 2024 році витратили 246 млрд доларів на капітальні витрати, пов’язані з ШІ-інфраструктурою, а приватні інвестиції у ШІ в США торік сягнули понад 100 млрд доларів. Загалом інвестиції обчислюють порядками сотень мільярдів доларів.
То коли з'явиться надлюдський штучний інтелект?
Дмитро Софина, керівник AI R&D Center WINSTARS.AI, в коментарі 24 Каналу пояснив, що поява надлюдського ШІ в найближчі десятиліття – це абсолютно реалістично.
Дмитро Софина
керівник AI R&D Center WINSTARS.AI
Темпи розвитку моделей ШІ сьогодні нагадують експоненціальне зростання, і ми щороку спостерігаємо прориви, які ще кілька років тому здавалися фантастикою. Якщо говорити про "загальний" штучний інтелект (AGI), то мова не йде про одну дату, коли він "раптом з’явиться". Це поступовий процес: від вузьких систем, які виконують одну функцію, до все більш універсальних моделей, здатних розуміти та адаптуватися до різних контекстів. Уже зараз ми бачимо передумови – здатність ШІ працювати в міждисциплінарних завданнях, навчатися на обмежених даних і проявляти риси "м’якої генералізації". Тому горизонти 10 – 20 років виглядають цілком реалістичними.
А от чи зможе людство визначити момент, коли машини перевищать наш інтелект? На думку Софини, це буде радше процес, ніж точка на шкалі часу. "Ми, ймовірно, не матимемо одного моменту, коли зможемо сказати: "ось зараз машина стала розумнішою за людину", – каже співрозмовник. За його словами, рівень інтелекту важко оцінити навіть серед людей, не кажучи вже про машини.
Дмитро Софина
керівник AI R&D Center WINSTARS.AI
Ми бачитимемо поступове розширення можливостей ШІ у все нових сферах: від науки до медицини, від креативних індустрій до управління системами. І лише заднім числом усвідомимо, що на якомусь етапі штучний інтелект уже перевищив людський у багатьох вимірах.
В чому ризики від AGI?
Численні прогнози спекулюють на тему того, що штучний інтелект призведе до втрати робочих місць або ж взагалі до знищення людства у найближчі роки. 24 Канал спитав в експерта з ШІ, які ж ризики від нового рівня "суперінтелекту".
Дмитро Софина
керівник AI R&D Center WINSTARS.AI
Найбільший ризик – це втрата здатності керувати критичними рішеннями. Якщо ШІ почне самостійно встановлювати цілі чи оптимізувати завдання без людського контролю, це може призвести до непередбачуваних наслідків.
Серед ключових загроз, на його думку, такі:
- геополітична нестабільність – країни можуть використати AGI як інструмент переваги, що загрожує новими конфліктами;
- економічні шоки – неконтрольована автоматизація може радикально змінити ринок праці, створюючи нерівність і соціальну напругу;
- етичні дилеми – якщо машини прийматимуть рішення про життя людей (у медицині, безпеці чи військовій сфері), це ставить під питання саму основу нашої відповідальності.
Тому головне завдання сьогодні, наголошує Дмитро Софина – створювати системи безпеки, прозорі механізми контролю та міжнародні правила, які дозволять розвивати AGI відповідально.

