Звісно, ось стаття, написана у стилі Ліли Гарт, на. Справа в тому, що основі наданої вами розшифровки відео:
Чи дійсно мислить штучний інтелект? Розмова про глибини людського розуму та машинну логіку
Я сиджу тут, за столом, дивлячись у вічі екрану, а він – мені. По той бік крихітних кристалів – всесвіт можливостей, народжений з кремнію та коду. Він пише історії, відповідає на питання, і навіть іскрить жартами з бездоганною граматикою. Але чи справді він мислить? Безумовно, чи є між нами – людиною з її історією, почуттями та емоціями – та машиною, що складає слова, щось спільне, окрім здатності обробляти інформацію?
Замислившись над цим, я відкриваю вікно у світ нейробіології та штучного інтелекту (ШІ). Щоб зануритися в глибини людського мислення та з’ясувати, як саме функціонують ці складні мережі.
Два світи, одна задача: обробка інформації
На перший погляд. Насправді, між людським мозком та великими мовними моделями (LLMs) є дещо спільне. Обидва вони:
уявіть собі,
- Обробляють інформацію через складні мережі. Для нас це біологічні нейрони, що сполучені синапсами та працюють в електрохімічному режимі. Фактично, у LLMs це штучні нейрони, з’єднані у шари, що обробляють інформацію за допомогою математики.
- Здатні покращувати свою роботу через навчання. Як ми, так і ШІ, здатні адаптуватися до нових даних та покращувати свої здібності.
Але саме тут починається розбіжність, що пронизує всі аспекти нашого мислення. Тож, давайте розглянемо шість ключових областей, які допоможуть нам зрозуміти, чи скажімо, є у машин глибина розуму, чи лише блискуча імітація:
- Навчання: людська пластичність проти машинного алгоритму
Ми, люди, навчаємося завдяки нейропластичності – чудовій здатності нашого мозку змінюватись у відповідь на досвід. Коли ми вивчаємо щось нове, мережі нейронів у відповідних областях мозку змінюють свої шаблони активації та вагу синапсів. Нейрони, скажімо, які загалом, активуються разом, зв’язуються разом, приблизно так. Простіше кажучи, відчули щось нове? Ваш мозок вже змінюється.
Цікаво, що люди можуть вчитися лише на невеликій кількості прикладів. Іноді достатньо одного єдиного контакту з новою ідеєю, щоб сформувалася стійка пам’ять.
LLMs, навпаки, вчаться через зворотне поширення помилок. Вони поглинають мільйони текстових прикладів та налаштовують свої внутрішні ваги, щоб мінімізувати різницю між прогнозованими результатами та фактичним текстом у навчальних даних.
Уявіть типу, собі, що ви вивчаєте нове слово. Вам може знадобитися почути його лише один-два рази, щоб почати його використовувати. Штучному слухайте, інтелекту потрібно побачити те саме слово тисячі разів. Перш ніж він зможе надійно використовувати його в контексті.
параметри моделі ШІ після навчання залишаються статичними, приблизно так. Звичайно, дивіться, ваги моделі не змінюються з часом. Люди ж постійно навчаються, оновлюють та налаштовують знання, засвоюючи нову інформацію. До речі,
- Обробка: паралельність проти послідовності
Людський мозок – це масивна, паралельна система. Мільярди нейронів та трильйони синапсів активні одночасно. Різні області дивіться, мозку спеціалізуються на різних функціях. Наприклад, зорова кора відповідає за зір.
LLMs працюють за іншими принципами. Вони використовують послідовності дискретних символів, відомих як токени. Простіше кажучи, коли LLM отримує вхідні дані, наприклад. Запит користувача, він кодує текст у серію векторних представлень. Потім ці представлення проходять через кілька шарів, де модель обчислює оцінки. Уваги, по суті, визначаючи, які токени є релевантними для прогнозування наступного.
Ми, люди, не працюємо з токенами. Ми обробляємо поняття. Слухаючи речення, ми схоплюємо сенс, пов’язуючи його з попереднім знанням та контекстом. Насправді, ми працюємо на скажімо, рівні ідей, а не окремих слів. Чесно кажучи,
Мислення людини начебто, часто описують як контентно-адресовану систему, що може викликати спогади або передбачення на основі значення, типу того. Робота LLM – це більше заповнення шаблонів на основі даних. Вона просто завершує шаблон на основі навчальних даних.
- Пам’ять: глибина проти обсягу
Люди володіють кількома системами пам’яті:
- Сенсорна пам’ять, що тримає інформацію з органів чуття на кілька секунд.
- Робоча пам’ять, що слугує тимчасовим сховищем інформації, короткострокова та обмежена за обсягом.
- Довготривала пам’ять – слухайте, велика схованка інформації, що зберігається роками. До речі,
Людська пам’ять – асоціативна. Спогади пов’язані ну, значенням, контекстом та емоціями, типу того. Я відчуваю запах засобу для миття вікон – і одразу згадую відеостудію.
LLMs мають простішу архітектуру пам’яті. Знання світу зберігаються в їхніх вагових коефіцієнтах, які були засвоєні під час навчання. Еквівалентом робочої пам’яті є вікно контексту – послідовність токенів, які модель розглядає як вхідні дані. Вікно заповнюється, інформація з нього стирається, типу того.
- Міркування: від системи-2 до логіки токенів
У нас є когнітивні моделі, що імітують людське покрокове мислення. Ми знаємо про систему-1 (швидкі інтуїтивні судження) та систему-2 (повільне, обдумане логічне мислення).
LLMs в основному навчаються на результатах мислення системи-2. Цікаво, – добре структурованої, чіткої інформації, що міститься в навчальних даних. Використання навчання з підкріпленням та “ланцюжків міркувань” може спонукати модель генерувати проміжні кроки міркування. Зрозуміло,
Але важлива різниця полягає в тому, що LLM не свідомо міркує. Вона просто генерує правдоподібну послідовність токенів, які здаються міркуваннями. Вона видає правильну відповідь, бо послідовність токенів відповідає логічним правилам. Модель не розуміє ці правила.
Саме тому LLMs зазнають невдачі у завданнях, що видаються елементарними для нас. Наприклад, підрахунок літер “р” у слові “полуниця” протягом тривалого часу ставив їх у безвихідь.
- Помилки: галюцинації проти конфабуляцій
Найбільш обговорюваний недолік LLMs – схильність до галюцинацій – видачі впевнених заяв, що є фактично невірними, типу того.
Для людини, галюцинації – це бачення та голоси, яких немає. Людським еквівалентом буде, скоріше, конфабуляція. Так називається створення помилкового спогаду або пояснення. Людина щиро вірить, що інформація правдива, хоча це не відповідає дійсності.
Мозок заповнює відсутні деталі. Це те, що автор книги “Перешкоджаючи щастю” Деніел Гілберт називає “трюк заповнення”. Скільки разів на день ми самі вдаємося до конфабуляцій?
- Втілення: сенс буття проти програмного коду
. Дивно,
Найглибша різниця між людським і ШІ мисленням, полягає у втіленні. Ми існуємо в реальному світі. Наші думки та поведінка залежать від взаємодії з фізичним середовищем. Наше бачите, розуміння вологості пов’язано з тактильними відчуттями. Щоб було ясно,
Штучний інтелект – наприклад, це програмне забезпечення, що існує на серверах. LLM не відчуває смаку, запаху, дотику. Його знання про світ є похідними, отриманими зі. Слів, написаних людьми, що пройшли свій шлях втілення.
ШІ часто не вистачає здорового глузду. Я знаю, що якщо відпущу маркер, він упаде на стіл, бо я його відчуваю. LLM може знати це, якщо достатньо разів бачила це у тексті. Але вона може легко передбачити, що маркер злетить у повітря.
Синтез: де люди та машини можуть співіснувати
LLMs та людський. Мозок видають схожі результати – есе, відповіді на питання, творчі історії. Але сама природа когнітивних процесів фундаментально відрізняється.
Обидві системи навчаються, обробляють начебто, інформацію, регулюючи зв’язки в складних мережах та узагальнюючи шаблони. Люди дають значення та розуміння та шІ дає швидкість та широту знань. Поєднання цих двох методів мислення та дає найкращі результати для світу.