Představujeme LFM2-24B-A2B od @LiquidAI, hybridní model MoE s parametry 24B optimalizovanými pro vysokoobjemové multiagentní pipeline. Nativní AI nyní mohou používat LFM2-24B-A2B na Together AI a těžit z spolehlivého odvozování pro nákladově efektivní výrobní agentické workflowy.
Hlavní body: 👉 Nákladově efektivní inference — 24B parametrů s pouze 2,3B aktivními umožňujícími masivní souběžnost agentů 👉 Rychlý model vnitřní smyčky — Optimalizován pro vysokoobjemové víceagentní pipeline s nativním voláním funkcí 👉 Hybridní architektura — 30 krátkých konvolučních bloků s omezenými brankami + 10 GQA bloků pro efektivní inferenci produkce 👉 Připraveno k produkci na AI Native Cloud — 99,9 % SLA, 32K kontextu, podpora 9 jazyků, serverless a dedikovaná infrastruktura
64