/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F4fdf99be9cae633bcb1b20fc584f7404.jpg)
Meta випускає Llama 4, новий гурт флагманських моделей ШІ
Компанія Meta випустила нову колекцію моделей штучного інтелекту Llama 4 із сімейства Llama .
Всього є чотири нові моделі: Llama 4 Scout, Llama 4 Maverick і Llama 4 Behemoth. Усіх навчали «великій кількості тексту, зображень і відео без міток», щоб дати їм «широке візуальне розуміння», — каже Мета.
Успіх відкритих моделей від китайської лабораторії штучного інтелекту DeepSeek , які працюють на рівні або краще, ніж попередні флагманські моделі Meta Llama, як повідомляється, підштовхнув розробку Llama до швидкості. Кажуть, що Meta здійснила кодування бойових кімнат, щоб розшифрувати, як DeepSeek знизив вартість запуску та розгортання таких моделей, як R1 і V3 .
Scout і Maverick відкрито доступні на Llama.com і від партнерів Meta, включаючи платформу розробників AI Hugging Face, тоді як Behemoth все ще навчається. Meta каже, що Meta AI, її помічник на основі штучного інтелекту в додатках, включаючи WhatsApp, Messenger і Instagram, оновлено для використання Llama 4 у 40 країнах. Мультимодальні функції наразі доступні лише для США англійською мовою.
Деякі розробники можуть сперечатися з ліцензією Llama 4.
Користувачам і компаніям, які «зареєстровані» або мають «основне місце діяльності» в ЄС, заборонено використовувати або поширювати моделі , ймовірно, через вимоги до управління, встановлені регіональними законами про штучний інтелект та конфіденційність даних. (У минулому Meta засуджувала ці закони як надто обтяжливі.) Крім того, як і в попередніх випусках Llama, компанії з понад 700 мільйонами активних користувачів щомісяця повинні запитувати спеціальну ліцензію в Meta, яку Meta може надати або відмовити на власний розсуд.
«Ці моделі Llama 4 знаменують початок нової ери для екосистеми Llama», — написав Мета в дописі в блозі . «Це лише початок колекції Llama 4».
Meta каже, що Llama 4 є першою когортою моделей, які використовують архітектуру суміші експертів (MoE), яка є більш ефективною з точки зору обчислень для навчання та відповідей на запити. Архітектури MoE в основному розбивають завдання обробки даних на підзадачі, а потім делегують їх меншим спеціалізованим «експертним» моделям.
Maverick, наприклад, має 400 мільярдів параметрів, але лише 17 мільярдів активних параметрів у 128 «експертів». (Параметри приблизно відповідають навичкам моделі розв’язувати проблеми.) Scout має 17 мільярдів активних параметрів, 16 експертів і 109 мільярдів загальних параметрів.
Відповідно до внутрішнього тестування Meta, Maverick, який, за словами компанії, найкраще підходить для випадків використання «загального помічника та чату», таких як творче написання, перевершує такі моделі, як GPT-4o від OpenAI та Gemini 2.0 від Google, у певних тестах кодування, аргументації, багатомовності, тривалого контексту та зображення. Однак Maverick не зовсім дорівнює більш потужним останнім моделям, таким як Gemini 2.5 Pro від Google, Claude 3.7 Sonnet від Anthropic і GPT-4.5 від OpenAI .
Сильні сторони Scout полягають у таких завданнях, як узагальнення документів і міркування над великими кодовими базами. Унікально, він має дуже велике контекстне вікно: 10 мільйонів токенів. («Токени» представляють фрагменти необробленого тексту — наприклад, слово «fantastic» розділене на «fan», «tas» і «tic».) Якщо говорити простою англійською мовою, Scout може приймати зображення та до мільйонів слів, що дозволяє обробляти та працювати з надзвичайно великими документами.
Відповідно до розрахунків Meta, Scout може працювати на одному графічному процесорі Nvidia H100, тоді як Maverick потрібна система Nvidia H100 DGX або еквівалент.
Невиданий Behemoth від Meta потребуватиме ще потужнішого обладнання. За даними компанії, Behemoth має 288 мільярдів активних параметрів, 16 експертів і майже два трильйони загальних параметрів. Внутрішній порівняльний аналіз Meta показує, що Behemoth перевершує GPT-4.5, Claude 3.7 Sonnet і Gemini 2.0 Pro (але не 2.5 Pro) у кількох оцінках вимірювання навичок STEM, як-от розв'язання математичних задач.
Слід зазначити, що жодна з моделей Llama 4 не є належною моделлю «міркування» на зразок o1 та o3-mini OpenAI . Моделі міркування перевіряють свої відповіді на факти та, як правило, відповідають на запитання більш надійно, але, як наслідок, для надання відповідей потрібно більше часу, ніж у традиційних моделях «без міркування».
Цікаво, що компанія Meta каже, що налаштувала всі свої моделі Llama 4 так, щоб вони рідше відмовлялися відповідати на «спірні» запитання. За словами компанії, Llama 4 реагує на «обговорювані» політичні та соціальні теми, чого не було в попередній серії моделей Llama. Крім того, за словами компанії, Llama 4 «надзвичайно більш збалансований», тому підказки його не розважать.
«Ви можете розраховувати на те, що [Lllama 4] надасть корисні, фактичні відповіді без суджень», — сказав TechCrunch представник Meta. «[Ми] продовжуємо робити Llama більш сприйнятливим, щоб він відповідав на більше запитань, міг відповідати на безліч різних точок зору […] і не віддавав перевагу одним поглядам над іншими».
Ці налаштування з’явилися, коли деякі союзники Білого дому звинуватили чат-боти штучного інтелекту в тому, що вони занадто «пробуджені» політично.
Багато з близьких довірених осіб президента Дональда Трампа, включаючи мільярдера Ілона Маска та «царя» криптовалют та ШІ Девіда Сакса, стверджували, що популярні чат-боти ШІ цензурують консервативні погляди . Сакс історично виділяв ChatGPT OpenAI як «запрограмований на пробудження» та неправдивий щодо політичних тем.
Насправді упередженість у ШІ є нерозв’язною технічною проблемою. Власна компанія Маска зі штучного інтелекту, xAI, намагалася створити чат-бот, який не схвалює одні політичні погляди над іншими.
Це не завадило компаніям, включаючи OpenAI, налаштувати свої моделі штучного інтелекту, щоб відповідати на більше питань, ніж раніше, зокрема на суперечливі теми.

