Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Liquid AI раскрывает план малых моделей для бизнеса

Liquid AI опубликовала подробный отчет по моделям LFM2, раскрыв рецепт создания компактных ИИ для устройств. Это blueprint для бизнеса: от архитектуры до обучения, с фокусом на реальные ограничения железа и приватность. Модели подходят для агентных систем в гибридных локально-облачных средах.

14 декабря 2025 г.
8 мин
10

Стартап Liquid AI, созданный в 2023 году специалистами по компьютерным наукам из MIT, в июле 2025 года представил вторую серию своих фундаментальных моделей Liquid Foundation Models v2 (LFM2). Основной акцент — на самых быстрых базовых моделях для работы прямо на устройствах благодаря новой "жидкой" архитектуре. Эти модели обеспечивают высокую эффективность при обучении и выводе, что делает компактные варианты реальной заменой большим языковым моделям из облака, таким как серия GPT от OpenAI или Gemini от Google.

Первая версия включала плотные чекпоинты с 350M, 700M и 1.2B параметрами, гибридную архитектуру с преобладанием затворных коротких сверток, а также результаты бенчмарков, где LFM2 обгоняла аналоги вроде Qwen3, Llama 3.2 и Gemma 3 по качеству и пропускной способности на CPU. Для бизнеса это значило, что мгновенный ИИ с защитой приватности на смартфонах, ноутбуках и автомобилях больше не требует жертвовать возможностями ради скорости.

После запуска линейка LFM2 разрослась: появились варианты, заточенные под конкретные задачи и домены, компактная модель для анализа видео, а также стек развертывания LEAP, ориентированный на edge-устройства. Модели позиционируют как управляющий слой для агентных систем на устройствах и локальных серверах.

Теперь компания пошла дальше и выложила на arXiv подробный 51-страничный технический отчет по LFM2. В нем описан поиск архитектуры, состав обучающих данных, цель дистилляции, стратегия учебного плана и пайплайн дообучения.

В отличие от многих открытых моделей, LFM2 построена на повторяемом подходе: поиск архитектуры с учетом аппаратных особенностей, учебный план, компенсирующий малый бюджет параметров, и дообучение, настроенное на выполнение инструкций и использование инструментов.

Вместо простого распространения весов и API Liquid AI делится полноценным чертежом, который другие команды могут взять за основу для создания своих компактных эффективных моделей с нуля — под свое железо и условия развертывания.

Семейство моделей под реальные ограничения, а не лаборатории с GPU

Отчет стартует с того, что хорошо знакомо бизнесу: настоящие ИИ-системы упираются в пределы задолго до бенчмарков. Бюджеты на задержки, пиковую память и тепловые ограничения определяют, что реально запустится в продакшене — особенно на ноутбуках, планшетах, обычных серверах и мобильных гаджетах.

Чтобы справиться, Liquid AI проводила поиск архитектуры прямо на целевом железе, включая мобильные SoC Snapdragon и CPU Ryzen для ноутбуков. Итог одинаков для всех размеров: минималистичная гибридная структура с доминированием затворных коротких блоков сверток и несколькими слоями группового запросного внимания (GQA). Такой дизайн стабильно побеждал более экзотические линейные механизмы внимания или гибриды SSM, предлагая лучший баланс качества, задержки и памяти в реальных условиях.

Для корпоративных разработчиков это дает три преимущества:

  1. Предсказуемость. Архитектура простая, экономит параметры и стабильна от 350M до 2.6B.

  2. Переносимость в эксплуатации. Плотные и MoE-варианты используют общий каркас, упрощая развертывание на смешанных флотах оборудования.

  3. Реализуемость на устройствах. Пропускная способность на этапе префилла и декодирования на CPU в 2 раза выше, чем у сравнимых открытых моделей, — меньше нужды сбрасывать задачи в облако.

Вместо охоты за академическими новинками отчет выглядит как системный дизайн моделей, которые бизнес может запустить на деле.

Это выделяется на фоне поля, где многие открытые модели подразумевают кластеры из H100 даже для инференса.

Обучающий пайплайн под поведение, полезное бизнесу

LFM2 использует подход, где структура компенсирует малый масштаб моделей, без грубой силы. Главные элементы:

  • Предобучение на 10–12T токенов плюс фаза среднеобучения на 32K контекста, которая расширяет полезное окно без взрывного роста затрат.

  • Развязанная цель дистилляции Top-K, избегающая нестабильности стандартного KL при неполных логитах от учителя.

  • Трехэтапная последовательность дообучения — SFT, выравнивание предпочтений с нормализацией по длине и слияние моделей — для надежного следования инструкциям и работы с инструментами.

Для разработчиков корпоративного ИИ важно, что LFM2 ведут себя не как мини-LLM, а как практичные агенты: держат структурированные форматы, JSON-схемы и многоходовые диалоги. Многие открытые аналоги того же размера спотыкаются не на рассуждениях, а на хрупком следовании шаблонам. Рецепт дообучения LFM2 шлифует именно эти углы.

Короче: Liquid AI доводила компактные модели до надежности в работе, а не только до таблиц лидеров.

Мультимодальность под ограничения устройств, а не демо в лаборатории

Варианты LFM2-VL и LFM2-Audio показывают сдвиг: мультимодальность через экономию токенов.

Вместо встраивания огромного визион-трансформера LFM2-VL цепляет энкодер SigLIP2 через коннектор с PixelUnshuffle для жесткого сокращения визуальных токенов. Высокие разрешения автоматически делят на тайлы динамически, сохраняя контроль бюджета даже на мобильном железе. LFM2-Audio разбивает аудио на два пути — для эмбеддингов и генерации — поддерживая транскрипцию или речь-в-речь в реальном времени на скромных CPU.

Для архитекторов платформ это намекает на будущее, где:

  • понимание документов идет прямо на конечных устройствах вроде полевых;
  • транскрипция аудио и речевые агенты работают локально ради приватности;
  • мультимодальные агенты укладываются в жесткие задержки без выгрузки данных.

Общая идея: мультимодальность без фермы GPU.

Модели поиска для агентных систем, а не старого поиска

LFM2-ColBERT доводит late-interaction retrieval до компактного размера, подходящего для корпоративных развертываний с многоязычным RAG без ускорителей векторных БД.

Это особенно ценно, когда компании собирают флот агентов. Быстрый локальный поиск на том же железе, что и модель рассуждений, урезает задержки и дает преимущество в управлении: документы не уходят за границы устройства.

Вместе VL, Audio и ColBERT делают LFM2 модульной системой, а не разовой моделью.

Рождающийся чертеж гибридных архитектур ИИ для бизнеса

По всем вариантам отчет LFM2 намечает, как будет выглядеть стек ИИ завтра: гибридная оркестрация локально-облако. Компактные быстрые модели на устройствах берут восприятие, форматирование, вызов инструментов и суждения, а облачные гиганты подключаются для тяжелых рассуждений.

Здесь сходятся тренды:

  • Контроль затрат. Локальный инференс избавляет от непредсказуемых облачных счетов.

  • Стабильность задержек. TTFT и устойчивость декодирования критичны для агентов; на устройстве нет сетевых флуктуаций.

  • Управление и соответствие. Локальный запуск упрощает работу с PII, резидентностью данных и аудитом.

  • Устойчивость. Агентные системы грациозно деградируют, если облако недоступно.

Компании, внедряющие такие архитектуры, увидят в малых моделях на устройствах "плоскость управления" для агентных потоков, с облачными как ускорителями по запросу.

LFM2 — одна из самых четких открытых основ для такого слоя на сегодня.

Главный вывод: ИИ на устройствах — выбор, а не компромисс

Годами бизнес мирился, что настоящий ИИ требует облака. LFM2 опровергает это. Модели конкурентны в рассуждениях, инструкциях, многоязычных задачах и RAG — плюс серьезный выигрыш в задержках по сравнению с другими открытыми малыми семействами.

Для CIO и CTO, планирующих 2026 год, вывод прямой: компактные открытые модели на устройствах уже тянут значимые куски продакшена.

LFM2 не вытеснит фронтирные облачные для топ-рассуждений. Но дает бизнесу то, что нужнее: воспроизводимую открытую основу для агентных систем, работающих где угодно — от смартфонов до пром-оборудования и изолированных зон.

В расширяющемся мире корпоративного ИИ LFM2 — не научный прорыв, а признак сходимости архитектур. Будущее — не облако или edge, а их симфония. Такие релизы дают блоки для тех, кто строит гибрид осознанно.