Llama 4: Відкритий код наздоганяє закритий? Аналіз, реакція та перші враження від моделі Meta
Нещодавній вихід у світ Llama 4 від Meta сколихнув світ штучного інтелекту. Чи справді відкритий код наздогнав закритий? І як Llama 4 вплине на майбутнє цієї галузі? Спробуємо розібратися.
Чому Llama 4 випустили в суботу?
Виявляється, у Meta була вагома причина “не чекати до понеділка”. Каламезе з X виявив, що дату релізу моделі було змінено з 7 на 5 квітня. Можливо, справа не лише в готовності продукту. Ходять чутки, що Meta дізналася про вихід ще однієї моделі від конкурентів і вирішила перехопити ініціативу. Адже в тісному світі компаній, які займаються передовими моделями, інформація поширюється швидко.
Реакція індустрії: Від захвату до скепсису
Llama 4 ще не минуло й доби, а індустрія вже гудить. Ось декілька найцікавіших реакцій:
-
Artificial Analysis: Провели незалежні бенчмарки двох версій Llama 4 (Maverick та Scout) і отримали вельми цікаві результати:
- Maverick (402 млрд параметрів) перевершує Claude 3.7 Sonnet, але поступається DeepSeek V3.
- Scout (109 млрд параметрів) на рівні з GPT-4 Mini та кращий за Mistral Small 3.1.
-
Відкритий код наздоганяє закритий? Здається, так. Базова модель Llama 4 з 2 трильйонами параметрів не поступається іншим моделям на ринку.
-
Ефективність понад усе: Llama 4 вирізняється вражаючою ефективністю. Maverick має вдвічі менше активних параметрів, ніж DeepSeek V3, але демонструє порівнянну продуктивність. Крім того, Maverick підтримує обробку зображень.
Результати Artificial Analysis Intelligence Index (не враховуючи моделі міркування):
- Deep Seek V3 – 53
- GPT-4o – 50
- Llama 4 Maverick – 49
Ефективність = Дешевше?
Так! Llama 4 Scout обійдеться вам в 15 центів за мільйон вхідних токенів та 40 центів за мільйон вихідних. Для порівняння, GPT-4o та Claude 3.7 Sonnet значно дорожчі.
Хто вже використовує Llama 4?
- Сатья Наделла (Microsoft): “Раді представити Llama 4 Scout і Maverick на Foundry, продовжуючи робити Azure платформою вибору для найпередовіших AI-моделей у світі.”
- Сундар Пічаї (Google): “Вітаю команду Llama 4!”
- Майкл Делл (Dell): “Найновіші моделі Llama 4 доступні на Dell Enterprise Hub.”
- Девід Сакс: “Щоб США перемогли в AI-гонці, ми повинні перемогти у відкритому коді, і Llama 4 повертає нас у лідери.”
- Рід Гоффман (LinkedIn): “Проводжу день, граючись з Llama 4.Context window – це щось неймовірне. Я не думаю, що це кінець RAG, але для багатьох робочих процесів достатньо лише довгого контексту.”
10 мільйонів токенів контексту: Кінець RAG?
Meta стверджує, що контекст Llama 4 “майже нескінченний” (більше 10 мільйонів токенів). Деякі навіть пророкують “смерть RAG”. Але чи все так однозначно?
По-перше, вартість обробки такої кількості вхідних токенів може бути значно вищою, ніж використання RAG. По-друге, RAG може бути швидшим.
Злом Llama 4: Чи це можливо?
На жаль, так. Плай (Plyy) доволі швидко зламав Llama 4, використовуючи цікаві техніки, які чимось нагадують методи з нещодавньої статті Anthropic.
Llama 4 і “мислення”: Чи потрібне воно взагалі?
Хоча Llama 4 не є моделлю “мислення”, ентузіасти вже знайшли спосіб навчити її думати, створивши спеціальний “інструмент мислення”.
Критика: Чи всі в захваті від Llama 4?
На жаль, ні. Каламезе вважає 400-мільярдну модель Llama 4 поганою, особливо через її надмірну “особистість”.
- На запитання: “Звідки походить цитата ‘Die monster! You don’t belong in this world!’?”
- Claude 3.5 Haiku дає чітку та лаконічну відповідь.
- Llama 4 Maverick починає з “Фантастичне питання! Ви питаєте про одну з найзнаковіших, найкрутіших і найцитованіших фраз у поп-культурі!” і лише потім дає відповідь.
Філіп Шмід (Google DeepMind) припускає, що Llama 4 створена для користувачів Instagram, Messenger та WhatsApp. З одного боку таку модель можна було б успішно застосувати і у чат-ботах, але з іншого, відкритий код дозволяє налаштувати модель під себе.
Llama 4 та Apple Silicon: Ідеальна пара?
Завдяки великій кількості параметрів, але низькій кількості активних, Llama 4 чудово працює на комп’ютері Apple.
- Llama 4 Scout: Один M3 Ultra з 512 ГБ об’єднаної пам’яті (9500 доларів) – 23 токени в секунду.
- Llama 4 Maverick: Два M3 Ultra з 512 ГБ (19 000 доларів) – 46 токенів в секунду.
- Llama 4 Behemoth: Десять M3 Ultra з 512 ГБ (95 000 доларів) – 1.39 токени в секунду.
10 мільйонів токенів контексту: Міф чи реальність?
Андрій Бурков вважає, що 10 мільйонів токенів контексту Llama 4 – це віртуальність, оскільки жодна модель не була навчена на запитах довше 256 000 токенів.
Тест із шестикутником: Чи пройшла Llama 4 перевірку?
На жаль, ні. Llama 4 не змогла створити програму, яка б імітувала м’яч, що відбивається від стінок обертового шестикутника, але автор тесту визнав, що Llama 4 може виявитись доволі перспективним інструментом.
Висновок: Що далі?
Llama 4 – це значний крок вперед для відкритого коду у світі штучного інтелекту. Попри деякі недоліки та суперечки, модель має величезний потенціал і вже привернула увагу провідних гравців індустрії. Незабаром будуть нові тести та експерименти з Llama 4. Тож слідкуйте за оновленнями, щоб бути в курсі подій!