Introductie van LFM2-24B-A2B van @LiquidAI, een hybride MoE-model met 24B parameters geoptimaliseerd voor multi-agent pipelines met een hoog volume. AI-natives kunnen nu LFM2-24B-A2B gebruiken op Together AI en profiteren van betrouwbare inferentie voor kosteneffectieve productie-schaal agentische workflows.
Hoogtepunten: 👉 Kosteneffectieve inferentie — 24B parameters met slechts 2,3B actief, wat enorme agentconcurrentie mogelijk maakt 👉 Snelle inner-loop model — Geoptimaliseerd voor hoge-volume multi-agent pipelines met native functie-aanroep 👉 Hybride architectuur — 30 gated korte convolutieblokken + 10 GQA-blokken voor efficiënte productie-inferentie 👉 Klaar voor productie op de AI Native Cloud — 99,9% SLA, 32K context, ondersteuning voor 9 talen, serverless en toegewijde infrastructuur
49