MCP-сервери: Як вони змінюють гру в світі штучного інтелекту (З погляду ентузіаста)
Привіт, любі читачі! До речі, з вами Ліла Гарт, і сьогодні ми поринемо у дивовижний світ MCP-серверів. Якщо ви, як і я, начебто, стежите за всім, що відбувається в галузі, щось на зразок. Штучного інтелекту, то, напевно, чули, що MCP стали новою “піснею” для інженерів AI. Звичайно, але що ж дивіться, це таке, чому це так важливо. І як воно може змінити те, як ми будуємо додатки? Давайте розберемось! Фактично,
Звісно, що в цьому відео, яке я переглянула, все було пояснено досить просто. Але я відчула потребу трохи поглибити це питання, додати емоцій. Поділитись своїми враженнями та розфарбувати ці технологічні реалії людськими історіями.
Коли все було простіше. Звичайно, і складніше
Раніше, якщо ви хотіли змусити LLM (велику мовну модель) взаємодіяти. Чесно кажучи, з вашими даними або API, вам доводилось писати власноруч величезну купу коду. До речі, це звучало як:
- Створити власний код для API вашої LLM.
- Підлаштувати код для API ваших джерел даних.
- Зшити все це докупи.
Звучить нескладно, поки ви не починаєте додавати більше моделей (LLM) та джерел даних. Раптом, для кожної моделі вам потрібно писати особливу інтеграцію з кожним джерелом даних. А якщо у вас розумієте, багато “агентів”, які мають взаємодіяти один з одним і з даними? Тоді виникає океан дублюючого коду, який важко підтримувати, масштабувати та розуміти. Страх, жах дивіться, і нічне безсоння будь-якого інженера!
На допомогу приходив Langchain – бібліотека, яка спробувала спростити цей процес. Справа в тому, що наприклад, очевидно, але вона не змогла вирішити проблему повністю.
Вхід MCP: Зміна гри
Власне, кілька місяців тому компанія Anthropic випустила протокол MCP. І ось тут все стало цікавіше! MCP дозволяє підключити вашу LLM до будь-якого джерела даних через MCP-сервер.
Уявіть собі MCP-сервер як універсальний порт USB. Очевидно, lLM – бачите, це ваш комп’ютер, а різні пристрої з різними портами – це різні джерела даних. Ви підключаєте їх до єдиного “USB-порту” – MCP-сервера. А той, в свою чергу, з’єднується з вашим “комп’ютером” (LLM). Ваша LLM отримує доступ до всіх цих пристроїв, даних та API.
Чому це важливо але більше часу на творчість!
Основна перевага MCP-серверів полягає в тому, що ви уникаєте. Необхідності писати індивідуальний код для кожної LLM і кожного джерела даних. Замість того, щоб писати, як було сказано у відео, купу функцій для кожної пари “агент – джерело даних”, ви просто створюєте MCP-сервер, який підключається до баз даних чи API. А потім до нього можна підключити будь-яку LLM, яку забажаєте.
Уявіть. Раніше, якщо у вас було n агентів і m джерел даних, вам доводилося писати n * m функцій! Це величезна купа роботи, дублювання коду, і клопітна підтримка. Насправді, з MCP-сервером вам потрібно написати лише n з’єднань LLM плюс m з’єднань джерела даних. Значно ефективніше, чи не так?
ви можете мати кілька MCP-серверів, що допоможе вам масштабуватись. На GitHub вже сотні серверів, що підтримують різні API, якими ви, ймовірно, вже користуєтесь. Своєю чергою, це дає можливість легко підключити їх до ваших агентів.
MPC бачите, в дії: Як це працює?
Процес, як пояснюють в відео, досить простий:
- Запит: Ваша програма надсилає запит разом з промптом (інструкцією) до MCP-клієнта.
- Інструменти: Клієнт запитує розумієте, сервер: “Які інструменти ти можеш мені запропонувати? ” Сервер відповідає переліком “інструментів”. Це може бути доступ до Calendar, Gmail, Slack тощо.
- Вибір: Клієнт запитує LLM: “Які з цих інструментів мені потрібні, щоб відповісти на це питання? “
- Рішення: LLM вирішує, які саме інструменти (функції, доступ до даних) необхідні.
- Виконання: Клієнт надсилає запити на MCP-сервер, щоб той виконав команди.
- Результати: Сервер повертає результати роботи інструментів (доступ до даних, відповіді API тощо) клієнту.
- Відповідь: Клієнт надсилає результати LLM, яка разом. З початковим промптом формує кінцеву відповідь для вашої програми.
І так, цей процес може повторюватись. Звісно, це значно спрощено, але загальна ідея саме така. Фактично,
Приклади із реального життя
У відео продемонстрували два види MCP-серверів: локальний та віддалений.
Локальний сервер: Ви можете створити власний MCP-сервер, запустивши його на своєму комп’ютері. Відео показує використання бібліотеки fast_mcр на Python. Звичайно, з її допомогою можна отримати прогноз погоди, використавши API Weather. Gov. Класно, коли можна створити щось корисне буквально за кілька рядків коду, правда? До речі,
Віддалений сервер: Це сервер, який розміщений на чужому комп’ютері в хмарі. У відео використовується firecrawl. Ви можете підключитись до нього через конфігураційний файл, вказуючи сервер та параметри запуску. Віддалений сервер в цьому прикладі виконував роль веб-скрапера, що дозволяло отримати інформацію з певного сайту.
MCP зараз і майбутнє
MCP-сервери спрощують дивіться, процес інтеграції LLM з різними сервісами, API і джерелами даних, якось так. Вони дозволяють зосередитись на створенні інтелектуальних AI-додатків, а не на рутині інтеграції. До речі,
Що ж далі? Безумовно, розвиток MCP-серверів, без сумніву, стимулює розвиток екосистеми AI. Все більше компаній і розробників будуть створювати свої сервери, щоб адаптувати їх до конкретних потреб. Насправді, це сприятиме ще більшій інтеграції і скороченню часу, необхідного для створення розумних застосунків. Можливо, з’являться нові стандарти, припустимо, нові інструменти, і ми побачимо, як штучний інтелект проникає в усі сфери нашого життя.
Особисто я впевнена, що попереду багато цікавого. І якщо ви хочете глибше зануритись у світ AI, обов’язково погляньте. На інші відео на каналі – тут знайдете багато корисного та надихаючого.
До наступної зустрічі, друзі! Не бійтесь експериментувати, вчитися та от, знаходити красу у світі технологій!







