🔥تهانينا ل @Zai_org على إطلاق GLM-5 — 744 مليار معلمة (40 مليار عامل نشط)، مدربة على رموز 28.5 طن، مع دمج DeepSeek Sparse Attention للحفاظ على تكلفة النشر قابلة للإدارة مع الحفاظ على سعة السياق الطويل. يدعم vLLM يوم صفر ل GLM-5-FP8 مع: 📖 DeepSeek Sparse Attention للخدمة الفعالة في السياق الطويل ⚡️ فك الترميز الافتراضي ب MTP ⚙️ استدعاء الأدوات + وضع التفكير وصفة مع إعدادات تقديم واختبارات العرض: 🔗