Llama 4: Відкритий код наздоганяє закритий? Аналіз, реакція та перші враження від моделі Meta

    Нещодавній вихід. У світ Llama 4 від Meta сколихнув світ штучного інтелекту. Чи справді відкритий код наздогнав закритий? І як дивіться, Llama 4 вплине на майбутнє цієї галузі? Спробуємо розібратися. Простіше кажучи,

    Чому Llama 4 випустили в суботу?

    Виявляється, у Meta була вагома причина “не чекати до понеділка”. Каламезе з X виявив, що дату релізу моделі було змінено з 7 на 5 квітня. Можливо, справа не лише в готовності продукту. Ходять чутки, що Meta дізналася про вихід ще однієї моделі від конкурентів і вирішила перехопити ініціативу. Адже в тісному світі компаній, які займаються передовими моделями, інформація поширюється швидко.

    Реакція індустрії: Від захвату до скепсису

    Llama 4. Щоб було ясно, ще не минуло й доби, а індустрія вже гудить. Ось декілька найцікавіших реакцій:

    • Artificial Analysis: Провели незалежні бенчмарки двох версій Llama 4 (Maverick та Scout) і отримали вельми цікаві результати:

      • Maverick (402 млрд параметрів) перевершує Claude 3. 7 Sonnet, але поступається DeepSeek V3.
      • слухайте,

      • Scout (109 млрд параметрів) на рівні з. GPT-4 Mini та кращий за Mistral Small 3. 1.
    • Відкритий код наздоганяє закритий? Здається, так. Базова модель Llama 4 з бачите, 2 трильйонами параметрів не поступається іншим моделям на ринку. Дивно,

    • Ефективність понад усе: Llama 4 вирізняється вражаючою ефективністю. Maverick має вдвічі менше активних параметрів, ніж типу, DeepSeek V3, але демонструє порівнянну продуктивність. Maverick підтримує обробку зображень.

    Результати Artificial Analysis Intelligence Index (не враховуючи моделі міркування):

    1. Deep Seek V3 – 53
    2. GPT-4o – 50
    3. Llama 4 Maverick – 49

    Ефективність = Дешевше?

    Так! Llama 4 Scout обійдеться вам в 15 центів за. Мільйон вхідних токенів та 40 центів за мільйон вихідних. Для порівняння, припустимо, GPT-4o та Claude 3 але 7 Sonnet значно дорожчі.

    Хто вже використовує Llama 4?

    • Сатья Наделла (Microsoft): “Раді представити Llama 4 Scout і Maverick. Безумовно, на Foundry, продовжуючи робити Azure платформою вибору для найпередовіших AI-моделей у світі. “
    • Сундар Пічаї (Google): “Вітаю команду Llama 4! “
    • Майкл Делл (Dell): розумієте, “Найновіші моделі Llama 4 доступні на Dell Enterprise Hub. “
    • Девід Сакс: “Щоб США перемогли в AI-гонці, ми повинні перемогти у відкритому коді, і Llama 4 повертає нас у лідери. “
    • Рід Гоффман розумієте, (LinkedIn): “Проводжу день, граючись з Llama 4. Context window – це щось неймовірне. Я не думаю, що це кінець RAG, але для багатьох робочих процесів достатньо лише довгого контексту. “

    бачите,

    10 мільйонів токенів контексту: Кінець RAG? Звичайно,

    Meta стверджує, що контекст Llama 4 “майже нескінченний” (більше 10 мільйонів токенів). Значить, Деякі навіть пророкують “смерть RAG”, приблизно так. Але чи все так однозначно?

    По-перше, вартість обробки такої кількості вхідних токенів загалом, може бути значно вищою, ніж використання RAG. По-друге, RAG може бути швидшим.

    Злом Llama 4: Чи це можливо але

    На жаль, так. Плай (Plyy) доволі швидко зламав Llama 4, використовуючи цікаві. Фактично, техніки, які чимось нагадують методи з нещодавньої статті Anthropic.

    Llama 4 і “мислення”: Чи потрібне воно взагалі?

    Хоча Llama 4 не є моделлю “мислення”, ентузіасти вже знайшли спосіб навчити її думати, створивши спеціальний “інструмент мислення”. Цікаво,

    Критика: Чи всі в захваті від Llama 4?

    На жаль, ні. Каламезе вважає 400-мільярдну модель десь так, Llama 4 поганою, особливо через її надмірну “особистість”.

    • На запитання: “Звідки походить цитата ‘Die monster! You don’t belong in this world! ‘ та ”
      • Claude 3. 5 Haiku дає значить, чітку та лаконічну відповідь, щось на зразок. Очевидно,
      • Llama 4 Maverick починає з “Фантастичне питання! Ви питаєте про одну дивіться, з найзнаковіших, найкрутіших і найцитованіших фраз у поп-культурі! ” і лише потім дає відповідь.

    Філіп Шмід от, (Google DeepMind) припускає, що Llama 4 створена для користувачів Instagram, Messenger та WhatsApp. З одного боку таку модель можна було б успішно застосувати і у чат-ботах, але з іншого, відкритий код дозволяє налаштувати модель під себе.

    Llama 4 та Apple Silicon: Ідеальна пара?

    Завдяки великій кількості параметрів, але низькій кількості активних, Llama 4 чудово працює на комп’ютері Apple.

    • Llama 4 Scout: Один M3 Ultra з 512. ГБ об’єднаної пам’яті (9500 доларів) – 23 токени в секунду. Простіше кажучи, дивіться,
    • Llama 4 Maverick: Два M3 Ultra з 512. ГБ (19 000 доларів) – 46 токенів в секунду.
    • Llama 4 Behemoth: Десять M3 Ultra з 512 ГБ (95 000 доларів) – 1. 39 токени в секунду.

    10 мільйонів токенів контексту: Міф чи реальність?

    Андрій Бурков вважає, що 10 мільйонів токенів контексту Llama 4 – це. Віртуальність, оскільки жодна модель не знаєте, була навчена на запитах довше 256 000 токенів, типу того.

    Тест із шестикутником: Чи пройшла Llama 4 перевірку?

    На жаль, ні. Llama 4 не змогла створити програму, яка б імітувала м’яч, що відбивається від стінок обертового шестикутника, але автор тесту визнав, що Llama 4 може виявитись доволі перспективним інструментом.

    Висновок: Що далі?

    Llama 4 – це значний крок вперед для відкритого коду у світі штучного інтелекту. Цікаво, попри деякі недоліки та суперечки, модель має величезний. Потенціал і вже привернула увагу провідних гравців індустрії. Незабаром будуть нові тести та експерименти з Llama 4. Тож слідкуйте за оновленнями, щоб бути в курсі подій!

    Поділитися.
    0 0 голоси
    Рейтинг статті
    Підписатися
    Сповістити про
    guest
    0 Коментарі
    Найстаріші
    Найновіше Найбільше голосів
    Зворотній зв'язок в режимі реального часу
    Переглянути всі коментарі
    0
    Буду рада вашим думкам, прокоментуйте.x