Qwen3.5系列在4位权重和KV缓存量化下保持近乎无损的准确性。 在长上下文效率方面: Qwen3.5-27B支持800K+的上下文长度 Qwen3.5-35B-A3B在32GB VRAM的消费级GPU上超过1M的上下文 Qwen3.5-122B-A10B在80GB VRAM的服务器级GPU上支持1M+的上下文长度 此外,我们已经开源了Qwen3.5-35B-A3B-Base模型,以更好地支持研究和创新。 我们迫不及待想看看社区接下来会构建什么!