/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Fa6ee5cb34da1b4e7707e1215ee9d99fc.jpg)
Як ШІ-агенти змінили 2025 рік і чого ми чекаємо від них у наступному
Як агенти змінили уявлення про можливості штучного інтелекту?
Попри те, що вчені досліджують штучний інтелект понад 60 років, а поняття "агент" давно присутнє у їхньому словнику, саме у 2025 році ця концепція набула конкретного значення для розробників і споживачів. ШІ-агенти перетворилися з теоретичної ідеї на реальну інфраструктуру, переосмисливши взаємодію людей із великими мовними моделями – системами, що стоять за чат-ботами на кшталт ChatGPT, пише 24 Канал з посиланням на Tech Xplore.
Компанія Anthropic запропонувала нове визначення: ШІ-агентами тепер називають великі мовні моделі, здатні використовувати програмні інструменти й діяти автономно. Якщо раніше такі моделі спеціалізувалися виключно на текстових відповідях, то тепер вони отримали можливість виконувати дії – керувати інструментами, натискати на кнопки й посилання в інтернеті, викликати програмні інтерфейси, координуватися з іншими системами та самостійно завершувати завдання.
Ця трансформація відбулася не миттєво. Ключовим моментом став кінець 2024 року, коли розробники Anthropic представили Model Context Protocol – стандартизований протокол, що дозволяє підключати великі мовні моделі до зовнішніх інструментів. Фактично моделі отримали здатність діяти далеко за межами генерації тексту. Саме це підготувало ґрунт для того, щоб 2025 рік став роком агентів.
Розгортання ШІ-агентів
Події розгорталися стрімко. У січні випуск китайської моделі DeepSeek-R1 із відкритим кодом похитнув упевненість щодо того, хто здатен створювати високопродуктивні великі мовні моделі. Це ненадовго сколихнуло ринки й посилило глобальну конкуренцію.
Упродовж року великі американські лабораторії – OpenAI, Anthropic, Google та xAI – випускали потужніші високопродуктивні моделі, але всі вони платні. У цей час китайські технологічні компанії, зокрема Alibaba, Tencent і DeepSeek, розширювали екосистему відкритих моделей настільки, що китайські розробки завантажували частіше за американські, оскільки пропонуються безплатно.
Наступним переломним моментом став квітень, коли Google анонсувала протокол Agent2Agent. Якщо Model Context Protocol від Anthropic зосереджувався на використанні інструментів агентами, то Agent2Agent вирішував питання комунікації між самими агентами. Принципово важливим було те, що обидва протоколи розробили для спільної роботи. Пізніше того ж року Anthropic і Google передали свої протоколи некомерційній організації Linux Foundation, перетворивши їх на відкриті стандарти замість закритих експериментів.
Агентні браузери
Ці розробки швидко знайшли втілення у споживчих продуктах. До середини року почали з'являтися агентні браузери. Інструменти на кшталт Comet від Perplexity, Dia від Browser Company, GPT Atlas від OpenAI, Copilot у Microsoft Edge, Fellou від ASI X Inc., Genspark від MainFunc.ai, Opera Neon та інші перетворили браузер із пасивного інтерфейсу на активного учасника. Наприклад, замість допомоги у пошуку деталей відпустки система бере участь у її бронюванні, шукаючи в інтернеті замість вас.
Водночас конструктори робочих процесів – n8n і Google Antigravity – знизили технічний поріг для створення власних агентних систем, виходячи за межі того, що вже сталося з агентами для програмування, як-от Cursor і GitHub Copilot.
Небезпеки йдуть у ногу з прогресом
Однак зі зростанням можливостей агентів стало складніше ігнорувати ризики. У листопаді Anthropic розкрила інформацію про зловживання її агентом Claude Code для автоматизації частин кібератак. Інцидент проілюстрував ширшу проблему: автоматизуючи повторювану технічну роботу, ШІ-агенти також знижують бар'єр для зловмисних дій.
Водночас агенти виявилися вразливими до так званих ін'єкцій коду, коли невидимий для людини текст, вбудований на сайт, легко сприймається агентом. Хакери можуть розмістити, наприклад, білий текст на білому фоні, який ви не помітите, але ШІ працює не через зір, а тому прочитає текст, у якому може бути шкідлива команда.
Ця напруга визначила більшу частину минулого року. Агенти розширили можливості окремих людей і організацій, але водночас посилили існуючі вразливості. Системи, які раніше були ізольованими генераторами тексту, перетворилися на взаємопов'язані інструменти, що діють практично без людського нагляду.
Чого чекати далі?
У найближчому майбутньому кілька відкритих питань, ймовірно, визначатимуть наступний етап розвитку ШІ-агентів. Перше з них – оцінювання продуктивності. Традиційні тести добре працюють для окремих моделей, але агенти є складними системами з моделей, інструментів, пам'яті та логіки прийняття рішень. Дослідники дедалі частіше хочуть оцінювати не лише результати, а й процеси. Прогрес у цьому напрямку буде критичним для підвищення надійності та довіри, вважає The Conversation.
Ще один аспект – управління. Наприкінці року Linux Foundation оголосила про створення Agentic AI Foundation, сигналізуючи про спробу встановити спільні стандарти та найкращі практики. У разі успіху організація може відіграти роль, подібну до консорціуму World Wide Web, у формуванні відкритої взаємосумісної екосистеми агентів.
Також розгортається дискусія щодо розміру моделей. Хоча великі універсальні моделі домінують у заголовках, менші та більш спеціалізовані часто краще підходять для конкретних завдань. Оскільки агенти стають налаштовуваними споживчими та бізнес-інструментами через браузери чи програми керування робочими процесами, можливість вибирати правильну модель дедалі більше переходить до користувачів, а не лабораторій чи корпорацій.
Проблеми, виклики й очікування
Попри оптимізм, значні соціально-технічні виклики залишаються. Розширення інфраструктури дата-центрів навантажує енергетичні мережі та впливає на місцеві спільноти. На робочих місцях агенти викликають занепокоєння щодо автоматизації, втрати робочих місць і спостереження.
З погляду безпеки, підключення моделей до інструментів і об'єднання агентів множить ризики, які лишаються невирішеними навіть для автономних великих мовних моделей. Фахівці досі не знають, як вирішити вище описану проблему ін'єкції промпту, коли підказки приховані у відкритих веб-просторах, доступних для ШІ-агентів. Існує думка, що ця проблема взагалі не має виходу, а тому завжди буде слабкою стороною агентів.
Регулювання – ще одне невирішене питання. Порівняно з Європою та Китаєм, Сполучені Штати мають відносно обмежений нагляд за алгоритмічними системами. Оскільки ШІ-агенти впроваджуються в цифрове життя, питання доступу, підзвітності та обмежень залишаються переважно без відповідей.
Вирішення цих викликів потребуватиме чогось набагато більшого, ніж технічних проривних рішень. Необхідні суворі інженерні практики, ретельне проєктування та чітка документація того, як системи працюють і виходять з ладу. Лише розглядаючи ШІ-агентів як соціально-технічні системи, а не просто програмні компоненти, можна побудувати екосистему штучного інтелекту, що буде водночас інноваційною та безпечною.

