Как работает LLM Council: четыре модели ИИ обсуждают, критикуют и синтезируют ответы
На первый взгляд, веб-приложение LLM Council мало чем отличается от ChatGPT. Пользователь вводит запрос в чат, но за кулисами запускается сложный трехэтапный процесс, имитирующий работу человеческих комитетов.
Сначала система отправляет запрос нескольким передовым моделям. В стандартной конфигурации Андрея Карпати это GPT-5.1 от OpenAI, Gemini 3.0 Pro от Google, Claude Sonnet 4.5 от Anthropic и Grok 4 от xAI. Модели генерируют ответы параллельно.
На втором этапе происходит взаимная оценка. Каждая модель получает анонимизированные ответы других и оценивает их по точности и глубине анализа. Это превращает ИИ из генератора в критика, добавляя слой контроля качества, редко встречающийся в стандартных чат-ботах.
Наконец, назначенный "председатель" — в данном случае Gemini 3 — получает исходный запрос, индивидуальные ответы и результаты оценки. Его задача — синтезировать всю информацию в единый авторитетный ответ для пользователя.
Карпати отметил: "Удивительно часто модели признают превосходство ответов других ИИ над своими собственными".

FastAPI, OpenRouter и подход к моделям как к взаимозаменяемым компонентам
Для технических директоров и архитекторов платформ ценность LLM Council не в литературной критике, а в архитектуре. Репозиторий демонстрирует минималистичный подход к современному стеку ИИ в конце 2025 года.
Приложение построено на "тонкой" архитектуре: бэкенд на FastAPI (Python), фронтенд на React с Vite, а хранение данных реализовано через простые JSON-файлы на локальном диске.
Ключевым элементом является OpenRouter — агрегатор API, который стандартизирует различия между поставщиками моделей. Благодаря ему Карпати избежал необходимости писать отдельный код интеграции для OpenAI, Google и Anthropic.
# Пример конфигурации моделей
COUNCIL_MODELS = [
"openai/gpt-5.1",
"google/gemini-3-pro",
"anthropic/claude-sonnet-4.5",
"xai/grok-4"
]
Такой подход подчеркивает тенденцию к коммодитизации уровня моделей. Трактуя передовые модели как взаимозаменяемые компоненты, архитектура защищает приложение от привязки к вендору.
Чего не хватает от прототипа до производства: аутентификация, удаление PII и соответствие стандартам
Хотя логика LLM Council элегантна, она также демонстрирует разрыв между "уикэнд-хаком" и производственной системой. Для корпоративных платформ клонирование репозитория Карпати — лишь первый шаг марафона.
- Отсутствует аутентификация — любой может отправлять запросы
- Нет ролевой модели доступа
- Отсутствуют механизмы удаления персональных данных (PII)
- Нет журналов аудита для отслеживания запросов
- Отсутствуют стратегии отказоустойчивости
Эти пробелы не являются недостатками кода Карпати — он явно заявил об отсутствии поддержки проекта — но они определяют ценностное предложение коммерческого рынка инфраструктуры ИИ.
Почему Карпати считает код "эфемерным", а традиционные библиотеки устаревшими
Самый провокационный аспект проекта — философия за ним. Карпати описал процесс разработки как "99% vibe-кодинг", подразумевая сильную зависимость от помощников ИИ.
"Спросите свою модель изменить код так, как вам нравится" — написал он в документации репозитория.
Это заявление знаменует радикальный сдвиг в инженерных возможностях. Вместо создания внутренних библиотек Карпати предлагает будущее, где код рассматривается как "подсказочный каркас" — одноразовый и легко переписываемый ИИ.
Когда ИИ оценивает ИИ: опасный разрыв между машинными предпочтениями и человеческими потребностями

Проект LLM Council случайно высветил специфический риск автоматизированного развертывания ИИ: расхождение между человеческим и машинным суждением.
Наблюдение Карпати о том, что модели предпочитали GPT-5.1, тогда как он сам отдал предпочтение Gemini, указывает на возможные общие предвзятости моделей. Они могут ценить многословность или конкретное форматирование, не соответствующее бизнес-потребностям людей в краткости и точности.