Закрийте меню

    Підпишіться

    Get the latest creative news from FooBar about art, design and business.

    Підпишіться
    Інструкції

    Відчужене Мовознавство. AI-агент NEN: Автоматизація, що надихає.

    18 Червня, 2025
    Огляд

    Створення Магії Автоматизації: ШІ та No-Code Відкривають Нові Горизонти

    18 Червня, 2025
    Огляд

    Майбутнє AI: Розмова з Кевіном Скоттом про зміни у світі праці та технологій

    18 Червня, 2025
    Цікаве
    • Відчужене Мовознавство. AI-агент NEN: Автоматизація, що надихає.
    • Створення Магії Автоматизації: ШІ та No-Code Відкривають Нові Горизонти
    • Майбутнє AI: Розмова з Кевіном Скоттом про зміни у світі праці та технологій
    • Захист злитих даних: Посібник від Кейсі Байт
    • Google Gemini 2.5: Штучний інтелект, що змінює реальність
    • MCP сервери: Майбутнє інтелекту у спрощеному вигляді
    • Miniax 2.0: Чи стане це оновлення вбивцею AI-відео? Розгорнутий огляд.
    • Creo 1: Нова генеративна модель зображень від корейських розробників – огляд та порівняння
    Середа, 18 Червня
    ШІ для ЮнікорнівШІ для Юнікорнів
    • Головна
    • Гайди
    • Інструкції
    • Інсайти
    • Огляд
    • Базис
    • Підсумки
    • Тренди
    ШІ для ЮнікорнівШІ для Юнікорнів
    Домой » Огляд » Ілюзія Мислення: Apple ставить під сумнів справжність інтелекту в сучасних ШІ
    ШІ для Юнікорнів | Ілюзія Мислення: Apple ставить під сумнів справжність інтелекту в сучасних ШІ
    Огляд

    Ілюзія Мислення: Apple ставить під сумнів справжність інтелекту в сучасних ШІ

    Ліла ГартBy Ліла Гарт9 Червня, 2025Оновлено:13 Червня, 2025Коментарів немає5 мінут читання
    Поділитися
    Facebook Twitter LinkedIn Pinterest Електронна пошта Телеграма WhatsApp Нитки Копіювати посилання

    Ілюзія Мислення: Чи дійсно Штучний Інтелект думає, чи просто майстерно імітує?

    Якось холодним ранком, коли вітер шепотів останнім осіннім листям на вулицях, мені трапилося відео, яке змусило задуматися про саме серце інтелекту. Мене звати Ліла Гарт, і я люблю знаходити сенс у складному, перетворювати наукову мову на людські історії. Цього разу об’єктом моєї уваги став аналіз від Apple, що досліджує глибини розуміння у великих мовних моделях (LLM). Цей аналіз, який швидко став вірусним, ставить під сумнів саме визначення мислення в контексті сучасних досягнень штучного інтелекту.

    Він викликав у мене таку бурю емоцій, як чашка міцної кави в холодну погоду, розбуджуючи мозок і змушуючи його вирувати питаннями. Що ж такого особливого в цій роботі, що вона так сильно вражає уяву навіть тих, хто далекий від технічних подробиць?

    Apple кидає виклик: Чи дійсно LLM «думають»?

    Суть аналізу від Apple, отримала назву “Ілюзія мислення”, полягає в тому, що ми, можливо, переоцінюємо можливості великих моделей міркування (LRM). Це ті самі моделі, про які так багато говорять: OpenAI 03, 04, Deepseek R1, Claude 3.7 і Claude 4.0, які застосовують процес “мислення”, щоб обробляти інформацію. Apple стверджує, що їхні досягнення можуть бути більш поверхневими, ніж здається. Вони акцентують увагу на:

    • Забрудненні даних: Деякі моделі, можливо, були навчені на тих самих тестах, які тепер мають проходити. Це, якби ви готувалися до іспиту, вивчаючи лише відповіді на екзаменаційні питання.
    • Недостатня узагальнювальна здатність: Справжній розум вміє застосовувати знання в різних ситуаціях. Apple сумнівається, чи роблять це сучасні LRM.
    • Упередженість в оцінці: Існуючі критерії оцінювання, зосереджені на точності кінцевої відповіді, можуть приховувати недоліки в процесі міркувань.

    Вони припускають, що, замість цього, слід використовувати більш контрольовані умови, як-от: головоломки.

    Пазли як ключове питання

    Автори статті пропонують використовувати головоломки різної складності для перевірки розуміння. Ці завдання дозволяють контролювати складність і уникати небажаного впливу “забруднення даних” – ситуації, коли модель вже знає відповіді. Приклади включають:

    • Вежа з Ханоя: Класична головоломка, де потрібно перемістити диски з одного стержня на інший, дотримуючись певних правил.
    • Стрибки через шашки: Гра, де потрібно перестрибувати фішки, щоб прибрати їх зі столу.
    • Переправа через річку: Головоломка, у якій персонажі повинні опинитися на протилежному боці, дотримуючись певних обмежень.
    • Блокований світ: Гра з блоками, де потрібно їх переміщувати для побудови певної структури.

    За допомогою цих головоломок можна регулювати складність. Збільшення кількості дисків у Вежі з Ханоя, або фішок в шашках, ускладнює задачу.

    Висновки: Що відкрила Apple?

    Використовуючи ці головоломки, Apple зробила декілька цікавих відкриттів:

    1. Обмеження в узагальненні: LRM не завжди здатні ефективно вирішувати задачі при збільшенні складності.
    2. Зміна стратегії: Моделі можуть спочатку робити помилки, а потім переглядати і знаходити правильні рішення, в залежності від складності.
    3. Економія ресурсів: На певній точці, LRM можуть використовувати менше токенів при вирішенні складних завдань, що може вказувати на певні обмеження.

    Аналіз підкреслює важливість оцінювання не тільки кінцевого результату, але й процесу мислення, який до нього привів. Важливо розуміти, як моделі досягають рішень, а не просто отримувати правильні відповіді.

    Світ LLM: Чи все так просто?

    Важливо розглянути ці висновки в контексті ширших тенденцій. Яке місце займає ця робота в гонці інтелекту?

    Існуючі способи оцінювання:

    1. Data Contamination: Поточні критерії оцінювання, такі як Amy 2024 і Amy 2025, можуть страждати від забруднення даних. Тобто, моделі, можливо, були навчені на даних, які використовуються в тестах.
    2. Inference Token Budgets: Якщо порівняти мислячі та не мислячі моделі з однаковим лімітом токенів, може виявитися, що останні працюють на тому ж рівні.
    3. Головоломки як альтернатива: Пазли дозволяють керувати складністю та уникнути забруднення.

    Цікаво, що в результаті на Amy 2025, люди показала кращі результати, ніж моделі, що, можливо, вказує на меншу складність цього бенчмарку, або на іншу проблему.

    Немислячі моделі використовують “Pass at K”, щоб отримати кращий варіант відповіді, що зрівнює можливості з мислячими моделями.

    Експерименти та їхній вплив

    Автори використовували моделі Claude та Deepseek, щоб дослідити їхню “логіку мислення”. Їхній висновок:

    • Проста задача: Обидві моделі працювали приблизно однаково.
    • Середня складність: Мислячі моделі показали кращі результати.
    • Висока складність: Обидві моделі не змогли впоратися.

    Вони зазначили, що моделі змінюють свою стратегію в залежності від складності. Наприклад, у простих задачах, моделі часто знаходять правильну відповідь на ранніх етапах, але продовжують витрачати токени.

    Вони з’ясували, що алгоритми, надані в явному вигляді, не покращили продуктивність. Це свідчить про обмеження LLM у верифікації.

    Ілія Суцкевер: Шлях до AGI?

    Все це відкидає думку про те, що LLM є засобом досягнення загального штучного інтелекту (AGI). Втім, Ілія Суцкевер, співзасновник OpenAI припускає, що AGI не за горами. Він висловлюється на користь цифрового інтелекту, який зможе виконувати всі задачі, які може виконувати людина.

    Висновки та перспективи

    Втім, Apple підкреслює, що їхні експерименти обмежені в контексті реальних задач, адже вони використовували лише головоломки.

    Відеоогляд також звертає увагу на те, що моделі відмінно справляються з кодуванням (створенням коду для вирішення завдань). У результаті, LLM змогла створити гру “Вежа з Ханоя” з можливістю до 20 дисків.

    У підсумку, аналіз від Apple ставить важливі питання про майбутнє ШI. Він показує як сильні так і слабкі сторони поточних LRM, вимагаючи більш ретельного вивчення їхніх можливостей і обмежень.
    Це дослідження нагадує нам, що шлях до справжнього інтелекту, можливо, пролягає через більш глибоке розуміння наших власних процесів мислення.

    Це як подорож у невідоме, де кожен крок відкриває нові горизонти та змушує переосмислювати, що означає «розуміти». І в цій подорожі кожен з нас, як спостерігач, може відкривати для себе нові аспекти інтелекту.

    Дивитись ще по темі статті
    ×
    AI Graphics and Video AI tools Algorithms Artistry Automation ChatGPT Claude Coding Model Evaluation News Open Source OpenAI Prompt Engineering Research Use Cases
    Поділитися. Facebook Twitter Pinterest LinkedIn Tumblr Електронна пошта Reddit Телеграма WhatsApp Нитки Копіювати посилання
    Попередня статтяV3 з прискоренням: Швидко, Економно та Відкриває Нові Можливості
    Наступна стаття Велика гра параметрів: Розмір має значення в епоху LLM?
    Портрет Ліла Гарт, крупним планом. Жінка з рудим волоссям, усміхнена. Фотографія в студії. LilaHart portrait.
    Ліла Гарт
    • Website

    Ліла Харт — авторка, яка перетворює інтерв’ю та події на історії з серцем. Її тексти — це легкий стиль, жива емоція й увага до деталей, що надихають.

    Пов’язані повідомлення

    Інструкції

    Відчужене Мовознавство. AI-агент NEN: Автоматизація, що надихає.

    18 Червня, 2025
    Огляд

    Створення Магії Автоматизації: ШІ та No-Code Відкривають Нові Горизонти

    18 Червня, 2025
    Огляд

    Майбутнє AI: Розмова з Кевіном Скоттом про зміни у світі праці та технологій

    18 Червня, 2025
    Додайте коментар

    Comments are closed.

    Читайте ще

    Відчужене Мовознавство. AI-агент NEN: Автоматизація, що надихає.

    18 Червня, 20250 Перегляди

    Створення Магії Автоматизації: ШІ та No-Code Відкривають Нові Горизонти

    18 Червня, 20250 Перегляди

    Майбутнє AI: Розмова з Кевіном Скоттом про зміни у світі праці та технологій

    18 Червня, 20250 Перегляди

    Захист злитих даних: Посібник від Кейсі Байт

    18 Червня, 20250 Перегляди

    Читають найбільше

    Інсайти

    5 способів заробити на AI у 2025 році: практичний посібник для професіоналів

    Кейсі Байт19 Квітня, 2025
    Огляд

    Майбутнє вже тут: Все, що потрібно знати про GPT-5

    Ліла Гарт13 Квітня, 2025
    Інструкції

    Firecrawl: Здобудьте Мудрість Вебу з Допомогою ШІ

    Ліла Гарт13 Квітня, 2025
    Тренди

    Google Cloud Next: Огляд Новинок ШІ та Майбутнє Технологій з Кейсі Байт

    Кейсі Байт13 Квітня, 2025
    Популярні

    Клод 4: ШІ, який мислить, відчуває та ставить під сумнів реальність

    23 Травня, 202544 Перегляди

    Game Over для RL? Розбираємо скандальне дослідження про AI та міркування

    24 Квітня, 202527 Перегляди

    Midjourney V7: Огляд, тести та перспективи. Ера персоналізації та виклик Flux’у?

    4 Квітня, 202521 Перегляди

    Підпишіться на оновлення

    Отримайте сповіщення про нові статті на вашу пошту

    Підпишіться
    • На домашню сторінку
    • Наші автори
    • Концепт
    • Контактна інформація
    • Політика конфіденційності
    © 2025 Створено та підтримується 4UNCORNS Team

    Введіть вище та натисніть Enter для пошуку. Натисніть Esc для відміни

    Cookies
    Ми використовуємо файли cookie. Якщо ви вважаєте, що це нормально, просто натисніть «Прийняти все». Ви також можете вибрати, який тип файлів cookie вам потрібен, натиснувши «Налаштування». Ознайомтеся з нашою політикою використання файлів cookie
    Налаштування Прийняти все
    Cookies
    Виберіть, які файли cookie приймати. Ваш вибір буде збережено протягом одного року. Ознайомтеся з нашою політикою використання файлів cookie
    • Необхідні
      Ці файли cookie не є необов'язковими. Вони необхідні для функціонування сайту.
    • Статистика
      Для того щоб ми могли поліпшити функціональність і структуру сайту, ґрунтуючись на тому, як він використовується.
    • Розширені
      Для того, щоб наш сайт працював якнайкраще під час вашого відвідування. Якщо ви відмовитеся від цих файлів cookie, з веб-сайту зникнуть деякі функції.
    • Маркетинг
      Ділячись своїми інтересами та поведінкою під час відвідування нашого сайту, ви збільшуєте шанс побачити персоналізований контент та пропозиції.
    Зберігти Прийняти все