Apresentando o LFM2-24B-A2B da @LiquidAI, um modelo híbrido MoE com 24B de parâmetros otimizado para pipelines multi-agente de alto volume. Os nativos de IA agora podem usar o LFM2-24B-A2B na Together AI e beneficiar de inferência confiável para fluxos de trabalho agenticos em escala de produção a custo eficaz.
Destaques: 👉 Inferência económica — 24B de parâmetros com apenas 2.3B ativos, permitindo uma enorme concorrência de agentes 👉 Modelo de ciclo interno rápido — Otimizado para pipelines multi-agente de alto volume com chamada de função nativa 👉 Arquitetura híbrida — 30 blocos de convolução curta com porta + 10 blocos GQA para uma inferência de produção eficiente 👉 Pronto para produção na Nuvem Nativa de AI — SLA de 99.9%, 32K de contexto, suporte a 9 idiomas, infraestrutura sem servidor e dedicada
40