Die Qwen3.5-Serie hält eine nahezu verlustfreie Genauigkeit bei 4-Bit-Gewicht und KV-Cache-Quantisierung. In Bezug auf die Effizienz bei langen Kontexten: Qwen3.5-27B unterstützt eine Kontextlänge von über 800K Qwen3.5-35B-A3B überschreitet 1M Kontext auf Consumer-GPUs mit 32GB VRAM Qwen3.5-122B-A10B unterstützt eine Kontextlänge von über 1M auf Server-GPUs mit 80GB VRAM Darüber hinaus haben wir das Qwen3.5-35B-A3B-Base-Modell Open Source veröffentlicht, um Forschung und Innovation besser zu unterstützen. Wir können es kaum erwarten zu sehen, was die Community als Nächstes entwickelt!