Seri Qwen3.5 mempertahankan akurasi yang hampir tanpa kehilangan di bawah bobot 4-bit dan kuantisasi cache KV. Dalam hal efisiensi konteks panjang: Qwen3.5-27B mendukung panjang konteks 800K+ Qwen3.5-35B-A3B melebihi konteks 1 juta pada GPU kelas konsumen dengan VRAM 32GB Qwen3.5-122B-A10B mendukung panjang konteks 1M+ pada GPU tingkat server dengan VRAM 80GB Selain itu, kami telah membuka model Qwen3.5-35B-A3B-Base untuk mendukung penelitian dan inovasi dengan lebih baik. Kami tidak sabar untuk melihat apa yang dibangun komunitas selanjutnya!