Introduktion av LFM2-24B-A2B från @LiquidAI, en hybrid MoE-modell med 24B parametrar optimerade för högvolyms multiagentpipelines. AI-infödda kan nu använda LFM2-24B-A2B på Together AI och dra nytta av pålitlig inferensering för kostnadseffektiva produktionsskala agentiska arbetsflöden.
Höjdpunkter: 👉 Kostnadseffektiv inferens — 24 miljarder parametrar med endast 2,3 miljarder aktiva vilket möjliggör massiv agent-samtidighet 👉 Snabb inner-loop-modell — Optimerad för högvolyms multiagent-pipelines med nativ funktionsanrop 👉 Hybridarkitektur — 30 låsta korta konvolutionsblock + 10 GQA-block för effektiv produktionsinferens. 👉 Produktionsklart på AI Native Cloud — 99,9 % SLA, 32K kontext, 9-språksstöd, serverlös och dedikerad infrastruktur
43