Alibaba представила Qwen3.5-397B-A17B — стартовую модель свежей линейки. Она одинаково справляется с текстом, изображениями и видео благодаря единой архитектуре и распространяется бесплатно в формате open-weight.
Всего в модели 397 миллиардов параметров, но на каждый запрос активируется лишь 17 миллиардов. Подобно другим большим ИИ, здесь применяется mixture-of-experts: сеть включается выборочно в зависимости от задания.
В Qwen3.5 соотношение общих и активных параметров особенно велико, как и в Qwen3-Next. Это указывает на детальное разделение на множество узкоспециализированных экспертов. Разработчики внедрили новую схему внимания Gated Delta Networks, чтобы дополнительно снизить вычислительные расходы.
По данным команды Qwen, новинка обрабатывает запросы в 19 раз быстрее предшественника Qwen3-Max и в 3,5–7 раз быстрее Qwen3-235B при контекстном окне в 256 000 токенов. Уровень производительности при этом сохраняется.
Qwen3.5 усиливает агентные возможности и анализ изображений
Qwen3.5 бьет рекорды в отдельных тестах, хотя и уступает GPT-5.2, Claude 4.5 Opus и Gemini-3 Pro в остальных. Самые заметные успехи приходятся на агентные задания: в TAU2, оценивающем автономность агента, модель набирает 86,7 балла — чуть меньше, чем у GPT-5.2 (87,1) и Claude 4.5 Opus (91,6). В выполнении сложных инструкций она лидирует по IFBench (76,5) и MultiChallenge (67,6). В реальных сценариях модель способна собрать презентацию из изображения и текстовых указаний.
Alibaba подчеркивает лидерство Qwen3.5 в визуально-математических тестах вроде MathVision (88,6) и ZEROBench (12). Модель также впереди в задачах на понимание документов и распознавание текста. Однако в общем бенчмарке по изображениями MMMU она отстает от Gemini 3 Pro (87,2) и GPT-5.2 (86,7) с результатом 85.
В традиционном мышлении и программировании конкуренты пока сильнее: GPT-5.2 набирает 87,7 в LiveCodeBench против 83,6 у Qwen3.5. В математических конкурсах вроде AIME26 модель показывает 91,3, проигрывая GPT-5.2 (96,7) и Claude 4.5 Opus (93,3).
Расширенные данные и мощное обучение с подкреплением дали толчок улучшениям
Разработчики объясняют прорыв по сравнению с серией Qwen3 масштабным этапом reinforcement learning. Вместо подгонки под конкретные бенчмарки они нарастили разнообразие и сложность тренировочных сценариев. Это особенно помогло агентным навыкам.
Alibaba отмечает, что обучение прошло на заметно большем массиве данных, прошедших строгую очистку. Несмотря на экономичную конструкцию, Qwen3.5 достигает уровня Qwen3-Max-Base, у которой свыше триллиона параметров.
Поддержка языков выросла с 119 до 201. Увеличенный словарь в 250 000 токенов (было 150 000) ускорит обработку для большинства языков на 10–60 процентов.
Qwen3.5 решает лабиринты и управляет десктопными процессами
Как изначально мультимодальная модель, Qwen3.5 способна анализировать до двух часов видео, по словам Alibaba. В опубликованных демонстрациях она самостоятельно пишет код на Python для прохождения лабиринта и визуализации кратчайшего пути. Еще в одном примере модель смотрит видео с движением и разбирает решения водителя по фазам светофора.
В роли GUI-агента Qwen3.5 самостоятельно взаимодействует с интерфейсами смартфонов и компьютеров — например, заполняет таблицы Excel или выполняет многоэтапные рабочие цепочки. Для программистов предусмотрены связи с инструментами вроде Qwen Code, превращающим описания на естественном языке в готовый код.
Команда Qwen смотрит дальше: переход от роста моделей к их интеграции в системы. Будущие агенты обретут постоянную память, смогут самосовершенствоваться и учитывать затраты. Вместо помощников по задачам Alibaba планирует автономные системы, самостоятельно справляющиеся со сложными проектами в течение нескольких дней.
Доступность
Открытая модель Qwen3.5-397B-A17B готова к скачиванию на Hugging Face под лицензией Apache 2.0, разрешающей коммерческое применение и доработки. Прямо в браузере ее можно опробовать через интерфейс Qwen Chat в режимах Auto, Thinking или Fast.
Хостинговая версия Qwen3.5-Plus с окном контекста в миллион токенов доступна по API через Alibaba Cloud Model Studio и включает веб-поиск, интерпретатор кода, адаптивное мышление. Модель интегрируется с такими инструментами, как Qwen Code, для работы в качестве кодингового агента.
Стоимость составляет 0,40 доллара за миллион входных токенов и 2,40 доллара за миллион выходных через API. Это существенно дешевле, чем у OpenAI или Anthropic для моделей схожего уровня — типично для китайских ИИ-лабов. Пока китайские компании не пробились на корпоративный рынок США, но набирают популярность среди экономных ИИ-стартапов.
Китайские ИИ-лаборатории не сбавляют темпы
Qwen3.5 выходит на фоне накала конкуренции среди китайских разработчиков ИИ. Zhipu AI только что представила GLM-5 — открытую модель с 744 миллиардами параметров, претендующую на равенство с Claude Opus 4.5 и GPT-5.2 в кодинге и агентах. Moonshot AI показала Kimi K2.5, координирующую до 100 параллельных подагентов. MiniMax запустила M2.5 с обещанием "интеллекта по цене, которую невозможно измерить". Baidu возглавила рейтинг LMArena среди всех китайских моделей с Ernie 5.0 и ее 2,4 триллионами параметров.
Все эти модели объединяют равные западным результаты в тестах, открытый доступ и — для API — минимальные цены по сравнению с конкурентами из Запада. Следующая большая модель Deepseek с триллионом параметров задерживается, но, по слухам, выйдет на этой неделе.