Большие языковые модели (LLM) умеют только одно — предсказывать текст. Но за простым ответом AI-чата скрывается целая архитектура: фронтенд, бэкенд, память, векторные представления, инструменты (tooling) для работы с внешними сервисами и новый протокол MCP для стандартизации их использования. В статье простыми словами объясняю, как всё это складывается в единый механизм: от «чата» до «агента». Читать далее