🔥恭喜 @Zai_org 發布 GLM-5 — 744B 參數(40B 活躍),訓練於 28.5T 代幣,整合 DeepSeek 稀疏注意力以保持部署成本可控,同時保留長上下文能力。 vLLM 對 GLM-5-FP8 提供即時支持,具備: 📖 DeepSeek 稀疏注意力以高效提供長上下文服務 ⚡️ MTP 投機解碼 ⚙️ 工具調用 + 思考模式 提供服務配置和基準的食譜: 🔗