La serie Qwen3.5 mantiene una precisión casi sin pérdidas bajo cuantización de peso de 4 bits y caché KV. En términos de eficiencia de contexto largo: Qwen3.5-27B soporta más de 800K de longitud de contexto Qwen3.5-35B-A3B supera 1M de contexto en GPUs de consumo con 32GB de VRAM Qwen3.5-122B-A10B soporta más de 1M de longitud de contexto en GPUs de servidor con 80GB de VRAM Además, hemos liberado el modelo Qwen3.5-35B-A3B-Base como código abierto para apoyar mejor la investigación y la innovación. ¡No podemos esperar a ver qué construye la comunidad a continuación!