Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Falcon H1R 7B на уровне моделей в 7 раз крупнее

Технологический инновационный институт из Абу-Даби представил Falcon H1R 7B — модель с 7 миллиардами параметров для рассуждений, которая по бенчмаркам равна конкурентам в 2–7 раз крупнее. Она построена на гибридной Transformer-Mamba архитектуре и уже доступна на Hugging Face с открытой лицензией.

5 января 2026 г.
1 мин
20

Технологический инновационный институт (TII) из Абу-Даби выпустил Falcon H1R 7B — компактную языковую модель для рассуждений с 7 миллиардами параметров. По данным TII, она достигает результатов, сравнимых с конкурентами, чей размер в 2–7 раз превышает её собственный, в ряде бенчмарков. Впрочем, оценки по тестам лишь приблизительно показывают реальную производительность, особенно у моделей небольшого размера. Falcon H1R 7B работает на гибридной архитектуре Transformer-Mamba, что ускоряет обработку данных по сравнению с похожими решениями.

В четырех бенчмарках Falcon H1R 7B набирает 49,5%, обходя такие модели, как Qwen3 32B с 46,2% и Nemotron H 47B Reasoning с 43,5%.

Модель открыта для скачивания на Hugging Face в формате полного чекпоинта и квантизованной версии, а также есть онлайн-демо. TII распространяет её под лицензией Falcon LLM, которая разрешает свободное использование, копирование, доработку, распространение и применение в коммерческих проектах. Пользователи обязаны соблюдать Политику приемлемого использования, которую TII оставляет за собой право менять в любой момент.