نقدم LFM2-24B-A2B من @LiquidAI، نموذج هجين لوزارة السحر مع 24 مليار معلمة محسنة لخطوط الأنابيب متعددة الوكلاء عالية الحجم. يمكن الآن للمستخدمين الأصليين باستخدام الذكاء الاصطناعي استخدام LFM2-24B-A2B على Together AI والاستفادة من الاستنتاج الموثوق لسير عمل الوكلاء على نطاق الإنتاج الفعال من حيث التكلفة.
أبرز النقاط التاريخية: 👉 الاستدلال الفعال من حيث التكلفة — 24 مليار معاملة مع 2.3 مليار فقط نشط يتيح التزامن الضخم مع العوامل 👉 نموذج الحلقة الداخلية السريع — محسن لخطوط أنابيب الوكلاء المتعددة ذات الحجم الكبير مع استدعاء الدوال الأصلي 👉 البنية الهجينة — 30 كتلة التفاف قصيرة مغلقة ببوابة + 10 كتل GQA لاستنتاج إنتاج فعال 👉 جاهز للإنتاج على سحابة الذكاء الاصطناعي الأصلية — 99.9٪ SLA، سياق 32K، دعم 9 لغات، بنية تحتية بدون خادم ومخصصة
‏‎58‏