Wir stellen LFM2-24B-A2B von @LiquidAI vor, ein hybrides MoE-Modell mit 24 Milliarden Parametern, das für hochvolumige Multi-Agenten-Pipelines optimiert ist. KI-Natives können jetzt LFM2-24B-A2B auf Together AI nutzen und von zuverlässigen Inferenzmöglichkeiten für kosteneffiziente Produktions-Workflows profitieren.
Höhepunkte: 👉 Kostenwirksame Inferenz — 24B Parameter mit nur 2,3B aktiv, was massive Agenten-Konkurrenz ermöglicht 👉 Schnelles Inner-Loop-Modell — Optimiert für hochvolumige Multi-Agenten-Pipelines mit nativer Funktionsaufruf 👉 Hybride Architektur — 30 gesteuerte kurze Convolution-Blöcke + 10 GQA-Blöcke für effiziente Produktionsinferenz 👉 Produktionsbereit in der AI Native Cloud — 99,9% SLA, 32K Kontext, 9-Sprachen-Unterstützung, serverlos und dedizierte Infrastruktur
71