Qwen3.5-serien opprettholder nesten tapsfri nøyaktighet under 4-bits vekt og KV-cache-kvantisering. Når det gjelder lang-kontekst effektivitet: Qwen3.5-27B støtter 800K+ kontekstlengde Qwen3.5-35B-A3B overstiger 1 million kontekst på forbruker-GPU-er med 32GB VRAM Qwen3.5-122B-A10B støtter 1M+ kontekstlengde på server-GPU-er med 80GB VRAM I tillegg har vi åpnet Qwen3.5-35B-A3B-Base-modellen for å bedre støtte forskning og innovasjon. Vi gleder oss til å se hva fellesskapet bygger videre!