Технологический инновационный институт (TII) из Абу-Даби выпустил Falcon H1R 7B — компактную языковую модель для рассуждений с 7 миллиардами параметров. По данным TII, она достигает результатов, сравнимых с конкурентами, чей размер в 2–7 раз превышает её собственный, в ряде бенчмарков. Впрочем, оценки по тестам лишь приблизительно показывают реальную производительность, особенно у моделей небольшого размера. Falcon H1R 7B работает на гибридной архитектуре Transformer-Mamba, что ускоряет обработку данных по сравнению с похожими решениями.
В четырех бенчмарках Falcon H1R 7B набирает 49,5%, обходя такие модели, как Qwen3 32B с 46,2% и Nemotron H 47B Reasoning с 43,5%.
Модель открыта для скачивания на Hugging Face в формате полного чекпоинта и квантизованной версии, а также есть онлайн-демо. TII распространяет её под лицензией Falcon LLM, которая разрешает свободное использование, копирование, доработку, распространение и применение в коммерческих проектах. Пользователи обязаны соблюдать Политику приемлемого использования, которую TII оставляет за собой право менять в любой момент.