Потенциал Qwen3.5 от малых до флагманских моделей
Команда Alibaba выпустила Qwen3.5 – последнее поколение больших языковых и мультимодальных моделей с открытыми весами. Эта серия расширяет пределы производительности и эффективности, позволяя выполнять высокоуровневые задачи при значительно сниженных вычислительных ресурсах. Этот выпуск соответствует общеотраслевому переходу к эффективному, готовому к развертыванию искусственному интеллекту: моделям, обеспечивающим развитое логическое мышление, программирование, агентное поведение и нативную мультимодальность, одновременно работая на потребительском оборудовании, периферийных устройствах, серверах с ограниченными ресурсами или даже в локальных/приватных средах.
Qwen3.5 охватывает широкий спектр размеров и архитектур: от ультракомпактных плотных моделей с менее чем 1 миллиардом параметров до массивных разреженных флагманов Mixture of Experts (MoE) с более чем 300 миллиардами параметров. Такая многоуровневая линейка позволяет разработчикам точно подобрать модель в соответствии с требованиями к задержке, пропускной способности, объему памяти, стоимости и возможностям.
В облегченном сегменте серия Qwen3.5 Small включает четыре модели с параметрами 0,8B, 2B, 4B и 9B. Выпущенные в начале марта 2026 года (завершая развертывание семейства, начатое в середине февраля), эти решения оптимизированы для работы на устройствах и периферийных сетях: смартфоны, Интернет вещей (IoT), встроенные системы и локальные вычисления с повышенной защитой конфиденциальности.
Они достигают впечатляющей эффективности благодаря таким архитектурным решениям, как гибридное внимание (Gated Delta Networks для линейного масштабирования во времени) и методам минимизации использования видеопамяти. Даже модель 9B стабильно работает на скромных потребительских графических процессорах или высококлассном мобильном оборудовании. Все малые модели наследуют нативную мультимодальность и контекстное окно на 262 144 токена, что делает возможной обработку длинных документов и поддержание расширенных локальных диалогов.
Вариант 9B выделяется как наиболее мощная из малых моделей, значительно сокращая разрыв с гораздо большими моделями в логическом мышлении, решении проблем и выполнении инструкций, отчасти благодаря интенсивному посттренировочному обучению с подкреплением.
Ключевым прорывом семейства Qwen3.5 является его родная мультимодальная архитектура. В отличие от многих предыдущих систем, которые добавляли визуальные кодеры к предварительно обученным языковым моделям, Qwen3.5 интегрирует визуальную и языковую обработку с самого этапа предварительного обучения (early fusion). Такой подход создает единое представление для текста, изображений, диаграмм, графиков, скриншотов и документов.
Результатом является улучшенная производительность в задачах визуального понимания: анализ макетов документов, интерпретация графиков/таблиц, логическое рассуждение по диаграммам, детальное оптическое распознавание символов (OCR), визуальные ответы на вопросы и мультимодальное поведение агентов (например, понимание и взаимодействие с контентом экрана).
В флагманских и средних моделях MoE активируется лишь небольшая часть параметров на токен:
- Qwen3.5-397B-A17B (флагман): 397 млрд параметров, активируются около 17 млрд.
- Qwen3.5-122B-A10B: 122 млрд параметров, активируются около 10 млрд.
- Qwen3.5-35B-A3B: 35 млрд параметров, активируются около 3 млрд.
Эта разреженность позволяет выполнять высокоуровневые мультимодальные интеллектуальные задачи и агентное поведение с затратами и скоростью, близкими к гораздо меньшим плотным моделям – часто на 60% дешевле и с пропускной способностью в 8 раз выше на больших объемах работы по сравнению с предыдущим поколением.
Qwen3.5 использует масштабное посттренировочное обучение с подкреплением, включая многоагентные среды моделирования с постепенно усложняющимися задачами. Это улучшает соблюдение инструкций, многоэтапное планирование, использование инструментов, снижает галлюцинации, обеспечивает структурированное соблюдение вывода и адаптивность в агентных сценариях (агенты кодирования, визуальные агенты, долгосрочные логические рассуждения).
Серия значительно расширяет лингвистическое покрытие до 201 языка и диалекта, с особым акцентом на языки с ограниченными ресурсами, способствуя по-настоящему инклюзивному и культурно осознанному ИИ.
Все модели имеют нативное контекстное окно на 262 144 токена (262K), достаточное для целых кодовых баз, длинных документов, многоступенчатых разговоров или сложного многодокументного анализа. Варианты Hosted/API (например, Qwen3.5-Plus на Alibaba Cloud Model Studio) расширяют это окно до 1 миллиона токенов.
Доступные под либеральными открытыми лицензиями (преимущественно Apache 2.0) на Hugging Face, ModelScope и GitHub, модели Qwen3.5 позволяют разработчикам и компаниям по всему миру создавать более мощные, эффективные и доступные ИИ-приложения: от мобильных ассистентов и аналитики на периферии до мощных облачных агентов и передовых исследований.