Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Статьи

Docker AI для создателей агентов: модели, инструменты, облако

Docker предлагает пять паттернов инфраструктуры для ИИ-агентов: Model Runner для локального запуска моделей из Docker Hub через OpenAI API, Compose для сборки стеков, Offload для облачных GPU, MCP-серверы для инструментов и оптимизированные GPU-образы PyTorch и TensorFlow. Пример docker-compose.yml интегрирует LLM, приложение и инструменты вроде поиска. Такой подход гарантирует стабильность и переносимость от локальной разработки до продакшена.

27 февраля 2026 г.
4 мин
30
5 полезных Docker-контейнеров для разработчиков ИИ-агентов

Ценность Docker

Создание автономных систем ИИ выходит далеко за пределы простых запросов к большим языковым моделям. Современные агенты координируют работу нескольких моделей, взаимодействуют с внешними инструментами, управляют памятью и масштабируются в разных вычислительных средах. Успех зависит не только от качества моделей, но и от продуманной инфраструктуры.

Docker в агентных системах меняет подход к инфраструктуре. Контейнеры превращаются из вспомогательного элемента в ключевую основу. Модели ИИ, серверы инструментов, ресурсы GPU и логика приложений описываются декларативно, версионируются и разворачиваются как единый комплекс. Получаются мобильные, стабильные ИИ-системы, которые работают одинаково от локальной разработки до облачного продакшена.

Здесь разбираются пять инфраструктурных паттернов, делающих Docker надежной базой для автономных ИИ-приложений.

1. Docker Model Runner: локальный доступ к моделям

Docker Model Runner (DMR) отлично подходит для экспериментов. Вместо настройки отдельных серверов инференса для каждой модели DMR предлагает единый API, совместимый с OpenAI, чтобы запускать модели прямо из Docker Hub. Прототип агента собирается на мощной модели с 20 миллиардами параметров локально, а для продакшена достаточно заменить на легковесную и быструю версию — меняется только имя модели в коде. Большие языковые модели (LLM) становятся стандартными, переносимыми компонентами.

Простое использование:

# Pull a model from Docker Hub
docker model pull ai/smollm2
# Run a one-shot query
docker model run ai/smollm2 "Explain agentic workflows to me."
# Use it via the OpenAI Python SDK
from openai import OpenAI
client = OpenAI(
  base_url="http://model-runner.docker.internal/engines/llama.cpp/v1",
  api_key="not-needed"
)

2. Описание моделей ИИ в Docker Compose

Современные агенты задействуют несколько моделей — например, одну для рассуждений, другую для эмбеддингов. Docker Compose позволяет определять их как сервисы верхнего уровня в файле compose.yml. Весь стек агента — бизнес-логика, API и модели ИИ — объединяется в единый блок для развертывания.

Так инфраструктура как код приходит в мир ИИ. Архитектуру агента можно хранить в версиях и запускать в любом месте одной командой docker compose up.

3. Docker Offload: мощь облака с локальным стилем работы

Обучение или инференс больших моделей может вывести из строя локальное оборудование. Docker Offload решает задачу, перенося выбранные контейнеры на облачные GPU прямо из локальной Docker-среды без лишних усилий.

Разработка и тестирование агентов с тяжелыми моделями идут через облачный контейнер, без освоения новых облачных API или администрирования удаленных серверов. Процесс остается полностью локальным, а вычисления — мощными и расширяемыми.

4. Серверы Model Context Protocol: инструменты агента

Качество агента определяется доступными инструментами. Model Context Protocol (MCP) — новый стандарт для передачи LLM инструментов вроде поиска, баз данных или внутренних API. В экосистеме Docker есть каталог готовых MCP-серверов в контейнерах.

Нет нужды писать интеграции с нуля — берите готовые для PostgreSQL, Slack или Google Search. Внимание уходит на логику рассуждений агента, а не на технические связки.

5. Базовые образы, оптимизированные для GPU, для собственной разработки

Для дообучения модели или кастомного инференса важен качественный базовый образ. Официальные образы PyTorch и TensorFlow уже включают CUDA, cuDNN и другие компоненты для ускорения на GPU. Они обеспечивают стабильную, быструю и воспроизводимую основу. Добавьте свой код и зависимости — собственный пайплайн обучения или инференса заработает одинаково на всех этапах.

Объединяем компоненты

Настоящая сила — в их сочетании. Ниже простой файл docker-compose.yml для приложения-агента с локальной LLM, сервером инструментов и возможностью разгрузки тяжелых задач.

services:
  # our custom agent application
  agent-app:
    build: ./app
    depends_on:
      - model-server
      - tools-server
    environment:
      LLM_ENDPOINT: http://model-server:8080
      TOOLS_ENDPOINT: http://tools-server:8081
  # A local LLM service powered by Docker Model Runner
  model-server:
    image: ai/smollm2:latest # Uses a DMR-compatible image
    platform: linux/amd64
    # Deploy configuration could instruct Docker to offload this service
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
  # An MCP server providing tools (e.g. web search, calculator)
  tools-server:
    image: mcp/server-search:latest
    environment:
      SEARCH_API_KEY: ${SEARCH_API_KEY}
  # Define the LLM model as a top-level resource (requires Docker Compose v2.38+)
  models:
    smollm2:
      model: ai/smollm2
      context_size: 4096

Пример демонстрирует, как сервисы связываются между собой.

Примечание: Синтаксис разгрузки и описания моделей продолжает развиваться. Всегда сверяйтесь с последней документацией Docker AI для деталей реализации.

Агентные системы нуждаются не только в хитрых промптах. Им требуются стабильные среды, модульная интеграция инструментов, масштабируемые ресурсы и четкое разделение частей. Docker позволяет видеть каждый компонент агента — от языковой модели до сервера инструментов — как самостоятельный, комбинируемый модуль.

Локальные эксперименты с Docker Model Runner, сборка полных стеков в Docker Compose, перенос нагрузки на облачные GPU и подключение инструментов через унифицированные серверы создают проверенный шаблон инфраструктуры для автономного ИИ.

С LangChain или CrewAI контейнерная стратегия остается неизменной. Декларативная и мобильная инфраструктура освобождает от хлопот с окружением, позволяя сосредоточиться на формировании умного поведения.

Горячее

Загружаем популярные статьи...

Docker AI строит ИИ-агентов моделями и облаком