Presentiamo LFM2-24B-A2B di @LiquidAI, un modello ibrido MoE con 24 miliardi di parametri ottimizzato per pipeline multi-agente ad alto volume. Gli utenti nativi dell'AI possono ora utilizzare LFM2-24B-A2B su Together AI e beneficiare di un'inferenza affidabile per flussi di lavoro agentici scalabili e convenienti.
Punti salienti: 👉 Inferenza economica — 24 miliardi di parametri con solo 2,3 miliardi attivi che abilitano una massiccia concorrenza degli agenti 👉 Modello veloce nel ciclo interno — Ottimizzato per pipeline multi-agente ad alto volume con chiamate di funzione native 👉 Architettura ibrida — 30 blocchi di convoluzione brevi gated + 10 blocchi GQA per un'inferenza di produzione efficiente 👉 Pronto per la produzione su AI Native Cloud — SLA del 99,9%, 32K di contesto, supporto per 9 lingue, infrastruttura serverless e dedicata
64