Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Статьи

Vibe-кодинг Андрея Карпати: будущее корпоративного ИИ

Андрей Карпати создал экспериментальную систему LLM Council, демонстрирующую новый подход к оркестровке ИИ-моделей через взаимную оценку и синтез ответов.

13 декабря 2025 г.
8 мин
12

Как работает LLM Council: четыре модели ИИ обсуждают, критикуют и синтезируют ответы

На первый взгляд, веб-приложение LLM Council мало чем отличается от ChatGPT. Пользователь вводит запрос в чат, но за кулисами запускается сложный трехэтапный процесс, имитирующий работу человеческих комитетов.

Сначала система отправляет запрос нескольким передовым моделям. В стандартной конфигурации Андрея Карпати это GPT-5.1 от OpenAI, Gemini 3.0 Pro от Google, Claude Sonnet 4.5 от Anthropic и Grok 4 от xAI. Модели генерируют ответы параллельно.

На втором этапе происходит взаимная оценка. Каждая модель получает анонимизированные ответы других и оценивает их по точности и глубине анализа. Это превращает ИИ из генератора в критика, добавляя слой контроля качества, редко встречающийся в стандартных чат-ботах.

Наконец, назначенный "председатель" — в данном случае Gemini 3 — получает исходный запрос, индивидуальные ответы и результаты оценки. Его задача — синтезировать всю информацию в единый авторитетный ответ для пользователя.

Карпати отметил: "Удивительно часто модели признают превосходство ответов других ИИ над своими собственными".
Интерфейс LLM Council
Пример работы системы с четырьмя моделями ИИ

FastAPI, OpenRouter и подход к моделям как к взаимозаменяемым компонентам

Для технических директоров и архитекторов платформ ценность LLM Council не в литературной критике, а в архитектуре. Репозиторий демонстрирует минималистичный подход к современному стеку ИИ в конце 2025 года.

Приложение построено на "тонкой" архитектуре: бэкенд на FastAPI (Python), фронтенд на React с Vite, а хранение данных реализовано через простые JSON-файлы на локальном диске.

Ключевым элементом является OpenRouter — агрегатор API, который стандартизирует различия между поставщиками моделей. Благодаря ему Карпати избежал необходимости писать отдельный код интеграции для OpenAI, Google и Anthropic.

# Пример конфигурации моделей COUNCIL_MODELS = [ "openai/gpt-5.1", "google/gemini-3-pro", "anthropic/claude-sonnet-4.5", "xai/grok-4" ]

Такой подход подчеркивает тенденцию к коммодитизации уровня моделей. Трактуя передовые модели как взаимозаменяемые компоненты, архитектура защищает приложение от привязки к вендору.

Чего не хватает от прототипа до производства: аутентификация, удаление PII и соответствие стандартам

Хотя логика LLM Council элегантна, она также демонстрирует разрыв между "уикэнд-хаком" и производственной системой. Для корпоративных платформ клонирование репозитория Карпати — лишь первый шаг марафона.

  • Отсутствует аутентификация — любой может отправлять запросы
  • Нет ролевой модели доступа
  • Отсутствуют механизмы удаления персональных данных (PII)
  • Нет журналов аудита для отслеживания запросов
  • Отсутствуют стратегии отказоустойчивости

Эти пробелы не являются недостатками кода Карпати — он явно заявил об отсутствии поддержки проекта — но они определяют ценностное предложение коммерческого рынка инфраструктуры ИИ.

Почему Карпати считает код "эфемерным", а традиционные библиотеки устаревшими

Самый провокационный аспект проекта — философия за ним. Карпати описал процесс разработки как "99% vibe-кодинг", подразумевая сильную зависимость от помощников ИИ.

"Спросите свою модель изменить код так, как вам нравится" — написал он в документации репозитория.

Это заявление знаменует радикальный сдвиг в инженерных возможностях. Вместо создания внутренних библиотек Карпати предлагает будущее, где код рассматривается как "подсказочный каркас" — одноразовый и легко переписываемый ИИ.

Когда ИИ оценивает ИИ: опасный разрыв между машинными предпочтениями и человеческими потребностями

График расхождений между оценками моделей и людей
Как модели ИИ оценивают друг друга по сравнению с человеческими предпочтениями

Проект LLM Council случайно высветил специфический риск автоматизированного развертывания ИИ: расхождение между человеческим и машинным суждением.Наблюдение Карпати о том, что модели предпочитали GPT-5.1, тогда как он сам отдал предпочтение Gemini, указывает на возможные общие предвзятости моделей. Они могут ценить многословность или конкретное форматирование, не соответствующее бизнес-потребностям людей в краткости и точности.

Чему могут научиться корпоративные команды у уикэнд-хака при построении стека 2026 годаВ конечном итоге LLM Council служит тестом Роршаха для индустрии ИИ. Для энтузиастов это забавный способ читать книги. Для вендоров — угроза, доказывающая возможность воспроизведения основных функций их продуктов за несколько сотен строк кода.

Горячее

Загружаем популярные статьи...