Vi introduserer LFM2-24B-A2B fra @LiquidAI, en hybrid MoE-modell med 24B parametere optimalisert for høyvolum multi-agent pipelines. AI-native kan nå bruke LFM2-24B-A2B på Together AI og dra nytte av pålitelig slutning for kostnadseffektive produksjonsskala agentiske arbeidsflyter.
Høydepunkter: 👉 Kostnadseffektiv slutning — 24 milliarder parametere med bare 2,3 milliarder aktive som muliggjør massiv agent-samtidighet 👉 Rask inner-loop-modell — Optimalisert for høyvolum multi-agent pipelines med native funksjonskall 👉 Hybridarkitektur — 30 låste korte konvolusjonsblokker + 10 GQA-blokker for effektiv produksjonsinferens 👉 Produksjonsklart på AI Native Cloud — 99,9 % SLA, 32K kontekst, 9-språklig støtte, serverløs og dedikert infrastruktur
52