A série Qwen3.5 mantém uma precisão quase sem perdas sob quantização de peso de 4 bits e cache KV. Em termos de eficiência de longo contexto: Qwen3.5-27B suporta comprimento de contexto de 800K+ Qwen3.5-35B-A3B ultrapassa 1M de contexto em GPUs de consumo com 32GB de VRAM Qwen3.5-122B-A10B suporta comprimento de contexto de 1M+ em GPUs de servidor com 80GB de VRAM Além disso, tornámos o modelo Qwen3.5-35B-A3B-Base de código aberto para melhor apoiar a pesquisa e a inovação. Mal podemos esperar para ver o que a comunidade irá construir a seguir!