Как работают AI-агенты: MCP, Function Calling, архитектура и примеры
Описание
Мой Telegram-канал: https://t.me/gmoreva
Статья на хабре: https://habr.com/ru/articles/926548/
Ролик на канале Владилена Минина про запуск ИИ-агента на TS: https://youtu.be/9oJIU6A5Z70?si=fsTISnUYHsfbJ0jQ
В этом видео я разбираю теоретическую архитектуру AI-агентов и MCP-серверов, без демо, без маркетинга и без «волшебных кнопок».
О чём видео:
— что такое AI-агент и чем он отличается от обычной LLM
— как работает Function Calling / Tool Calling
— зачем появился Model Context Protocol (MCP)
— почему MCP — это стандарт интерфейса, а не способ “сделать модель умнее”
— роль третьей системы-исполнителя между пользователем и LLM
— как LLM принимает решение о вызове инструментов
— structured output vs Function Calling
— как передаётся контекст и история диалога
— почему агент — это система, а не промпт
Также затрагиваю:
— локальный запуск LLM (Ollama, vLLM)
— облако vs on-prem
— ограничения контекста, токены и стоимость
— типовые архитектурные заблуждения вокруг AI-агентов и MCP
Видео рассчитано на техническую аудиторию: backend-разработчиков, AI-инженеров, архитекторов и тех, кто проектирует системы с LLM.
Таймкоды:
01:22 Как работает ИИ?
06:27 Кто такой ИИ-агент?
09:18 Способы реализации ИИ-агента
12:37 Заблуждения про ИИ-агентов
19:19 Что такое MCP?
23:54 Виды MCP и способы общения с ними
27:11 Что нам дает MCP?
27:56 Архитектура с MCP
29:30 Примеры ИИ-агентов
31:55 Как запустить ИИ-агента?
35:20 Ресурсы для локального запуска ИИ-агента
38:06 Полезные ссылки
#mcp #mcpservers #modelcontextprotocol #aiagents #llm #functioncalling #toolcalling #aiarchitecture #localai #ollama #vllm #backend #typescript #искусственныйинтеллект #ииагенты
Рекомендуемые видео













![ARMINA - Live @ Pustynia Błędowska, Poland [ Melodic techno & Progressive house dj mix ] 4k](/images/video/2026-02-08/4d/d8/4dd832ca14544303fafe44ef31c053a4.jpg?width=640)





