Prezentăm LFM2-24B-A2B de la @LiquidAI, un model MoE hibrid cu 24B parametri optimizați pentru pipeline-uri multi-agent cu volum mare. Nativii AI pot acum folosi LFM2-24B-A2B pe Together AI și beneficiază de inferențe fiabile pentru fluxuri de lucru agențice la scară de producție eficiente din punct de vedere al costurilor.
Momente importante: 👉 Inferență rentabilă — parametri 24B cu doar 2,3B activi, permițând concurența masivă a agenților 👉 Modelul rapid de buclă internă — Optimizat pentru pipeline-uri multi-agent cu volum mare și apelare a funcțiilor native 👉 Arhitectură hibridă — 30 de blocuri scurte de convoluție cu poartă + 10 blocuri GQA pentru inferență eficientă în producție 👉 Pregătit pentru producție pe AI Native Cloud — 99,9% SLA, context 32K, suport pentru 9 limbi, infrastructură serverless și dedicată
58