Qwen3.5系列在4位元權重和KV快取量化下保持近乎無損的準確性。 在長上下文效率方面: Qwen3.5-27B 支援 800K+ 的上下文長度 Qwen3.5-35B-A3B 在擁有 32GB VRAM 的消費級 GPU 上超過 1M 的上下文 Qwen3.5-122B-A10B 在擁有 80GB VRAM 的伺服器級 GPU 上支援 1M+ 的上下文長度 此外,我們已經開源了 Qwen3.5-35B-A3B-Base 模型,以更好地支持研究和創新。 我們迫不及待想看看社群接下來會建造什麼!