De Qwen3.5-serie behoudt bijna verliesloze nauwkeurigheid onder 4-bits gewicht en KV-cache-kwantisering. Wat betreft de efficiëntie van lange contexten: Qwen3.5-27B ondersteunt 800K+ contextlengte Qwen3.5-35B-A3B overschrijdt 1M context op consument-grade GPU's met 32GB VRAM Qwen3.5-122B-A10B ondersteunt 1M+ contextlengte op server-grade GPU's met 80GB VRAM Bovendien hebben we het Qwen3.5-35B-A3B-Base-model open-source gemaakt om onderzoek en innovatie beter te ondersteunen. We kunnen niet wachten om te zien wat de gemeenschap als volgende bouwt!