Présentation de LFM2-24B-A2B de @LiquidAI, un modèle hybride MoE avec 24 milliards de paramètres optimisé pour des pipelines multi-agents à fort volume. Les natifs de l'IA peuvent désormais utiliser LFM2-24B-A2B sur Together AI et bénéficier d'une inférence fiable pour des flux de travail agentiques à grande échelle et rentables.
Points forts : 👉 Inférence économique — 24 milliards de paramètres avec seulement 2,3 milliards actifs permettant une massive concurrence d'agents 👉 Modèle de boucle interne rapide — Optimisé pour des pipelines multi-agents à fort volume avec appel de fonction natif 👉 Architecture hybride — 30 blocs de convolution courts à portes + 10 blocs GQA pour une inférence de production efficace 👉 Prêt pour la production sur le Cloud AI Native — SLA de 99,9 %, 32K de contexte, support de 9 langues, infrastructure sans serveur et dédiée
46