Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Présentation de LFM2-24B-A2B de @LiquidAI, un modèle hybride MoE avec 24 milliards de paramètres optimisé pour des pipelines multi-agents à fort volume. Les natifs de l'IA peuvent désormais utiliser LFM2-24B-A2B sur Together AI et bénéficier d'une inférence fiable pour des flux de travail agentiques à grande échelle et rentables.

Points forts :
👉 Inférence économique — 24 milliards de paramètres avec seulement 2,3 milliards actifs permettant une massive concurrence d'agents
👉 Modèle de boucle interne rapide — Optimisé pour des pipelines multi-agents à fort volume avec appel de fonction natif
👉 Architecture hybride — 30 blocs de convolution courts à portes + 10 blocs GQA pour une inférence de production efficace
👉 Prêt pour la production sur le Cloud AI Native — SLA de 99,9 %, 32K de contexte, support de 9 langues, infrastructure sans serveur et dédiée
46
Meilleurs
Classement
Favoris
