Llama 4: Відкритий код наздоганяє закритий? Аналіз, реакція та перші враження від моделі Meta
Нещодавній вихід. У світ Llama 4 від Meta сколихнув світ штучного інтелекту. Чи справді відкритий код наздогнав закритий? І як дивіться, Llama 4 вплине на майбутнє цієї галузі? Спробуємо розібратися. Простіше кажучи,
Чому Llama 4 випустили в суботу?
Виявляється, у Meta була вагома причина “не чекати до понеділка”. Каламезе з X виявив, що дату релізу моделі було змінено з 7 на 5 квітня. Можливо, справа не лише в готовності продукту. Ходять чутки, що Meta дізналася про вихід ще однієї моделі від конкурентів і вирішила перехопити ініціативу. Адже в тісному світі компаній, які займаються передовими моделями, інформація поширюється швидко.
Реакція індустрії: Від захвату до скепсису
Llama 4. Щоб було ясно, ще не минуло й доби, а індустрія вже гудить. Ось декілька найцікавіших реакцій:
-
Artificial Analysis: Провели незалежні бенчмарки двох версій Llama 4 (Maverick та Scout) і отримали вельми цікаві результати:
- Maverick (402 млрд параметрів) перевершує Claude 3. 7 Sonnet, але поступається DeepSeek V3.
- Scout (109 млрд параметрів) на рівні з. GPT-4 Mini та кращий за Mistral Small 3. 1.
слухайте,
-
Відкритий код наздоганяє закритий? Здається, так. Базова модель Llama 4 з бачите, 2 трильйонами параметрів не поступається іншим моделям на ринку. Дивно,
-
Ефективність понад усе: Llama 4 вирізняється вражаючою ефективністю. Maverick має вдвічі менше активних параметрів, ніж типу, DeepSeek V3, але демонструє порівнянну продуктивність. Maverick підтримує обробку зображень.
Результати Artificial Analysis Intelligence Index (не враховуючи моделі міркування):
- Deep Seek V3 – 53
- GPT-4o – 50
- Llama 4 Maverick – 49
Ефективність = Дешевше?
Так! Llama 4 Scout обійдеться вам в 15 центів за. Мільйон вхідних токенів та 40 центів за мільйон вихідних. Для порівняння, припустимо, GPT-4o та Claude 3 але 7 Sonnet значно дорожчі.
Хто вже використовує Llama 4?
- Сатья Наделла (Microsoft): “Раді представити Llama 4 Scout і Maverick. Безумовно, на Foundry, продовжуючи робити Azure платформою вибору для найпередовіших AI-моделей у світі. “
- Сундар Пічаї (Google): “Вітаю команду Llama 4! “
- Майкл Делл (Dell): розумієте, “Найновіші моделі Llama 4 доступні на Dell Enterprise Hub. “
- Девід Сакс: “Щоб США перемогли в AI-гонці, ми повинні перемогти у відкритому коді, і Llama 4 повертає нас у лідери. “
- Рід Гоффман розумієте, (LinkedIn): “Проводжу день, граючись з Llama 4. Context window – це щось неймовірне. Я не думаю, що це кінець RAG, але для багатьох робочих процесів достатньо лише довгого контексту. “
бачите,
10 мільйонів токенів контексту: Кінець RAG? Звичайно,
Meta стверджує, що контекст Llama 4 “майже нескінченний” (більше 10 мільйонів токенів). Значить, Деякі навіть пророкують “смерть RAG”, приблизно так. Але чи все так однозначно?
По-перше, вартість обробки такої кількості вхідних токенів загалом, може бути значно вищою, ніж використання RAG. По-друге, RAG може бути швидшим.
Злом Llama 4: Чи це можливо але
На жаль, так. Плай (Plyy) доволі швидко зламав Llama 4, використовуючи цікаві. Фактично, техніки, які чимось нагадують методи з нещодавньої статті Anthropic.
Llama 4 і “мислення”: Чи потрібне воно взагалі?
Хоча Llama 4 не є моделлю “мислення”, ентузіасти вже знайшли спосіб навчити її думати, створивши спеціальний “інструмент мислення”. Цікаво,
Критика: Чи всі в захваті від Llama 4?
На жаль, ні. Каламезе вважає 400-мільярдну модель десь так, Llama 4 поганою, особливо через її надмірну “особистість”.
- На запитання: “Звідки походить цитата ‘Die monster! You don’t belong in this world! ‘ та ”
- Claude 3. 5 Haiku дає значить, чітку та лаконічну відповідь, щось на зразок. Очевидно,
- Llama 4 Maverick починає з “Фантастичне питання! Ви питаєте про одну дивіться, з найзнаковіших, найкрутіших і найцитованіших фраз у поп-культурі! ” і лише потім дає відповідь.
Філіп Шмід от, (Google DeepMind) припускає, що Llama 4 створена для користувачів Instagram, Messenger та WhatsApp. З одного боку таку модель можна було б успішно застосувати і у чат-ботах, але з іншого, відкритий код дозволяє налаштувати модель під себе.
Llama 4 та Apple Silicon: Ідеальна пара?
Завдяки великій кількості параметрів, але низькій кількості активних, Llama 4 чудово працює на комп’ютері Apple.
- Llama 4 Scout: Один M3 Ultra з 512. ГБ об’єднаної пам’яті (9500 доларів) – 23 токени в секунду. Простіше кажучи, дивіться,
- Llama 4 Maverick: Два M3 Ultra з 512. ГБ (19 000 доларів) – 46 токенів в секунду.
- Llama 4 Behemoth: Десять M3 Ultra з 512 ГБ (95 000 доларів) – 1. 39 токени в секунду.
10 мільйонів токенів контексту: Міф чи реальність?
Андрій Бурков вважає, що 10 мільйонів токенів контексту Llama 4 – це. Віртуальність, оскільки жодна модель не знаєте, була навчена на запитах довше 256 000 токенів, типу того.
Тест із шестикутником: Чи пройшла Llama 4 перевірку?
На жаль, ні. Llama 4 не змогла створити програму, яка б імітувала м’яч, що відбивається від стінок обертового шестикутника, але автор тесту визнав, що Llama 4 може виявитись доволі перспективним інструментом.
Висновок: Що далі?
Llama 4 – це значний крок вперед для відкритого коду у світі штучного інтелекту. Цікаво, попри деякі недоліки та суперечки, модель має величезний. Потенціал і вже привернула увагу провідних гравців індустрії. Незабаром будуть нові тести та експерименти з Llama 4. Тож слідкуйте за оновленнями, щоб бути в курсі подій!