Przedstawiamy LFM2-24B-A2B od @LiquidAI, hybrydowy model MoE z 24 miliardami parametrów, zoptymalizowany do obsługi wysokowolumenowych pipeline'ów wieloagentowych. Użytkownicy AI mogą teraz korzystać z LFM2-24B-A2B na Together AI i czerpać korzyści z niezawodnego wnioskowania dla opłacalnych procesów roboczych na dużą skalę.
Najważniejsze: 👉 Kosztowne wnioskowanie — 24B parametrów z tylko 2.3B aktywnymi, co umożliwia masową współbieżność agentów 👉 Szybki model wewnętrzny — Optymalizowany do wysokowolumenowych pipeline'ów wieloagentowych z natywnym wywoływaniem funkcji 👉 Hybrydowa architektura — 30 bloków krótkich konwolucji z bramkami + 10 bloków GQA dla efektywnego wnioskowania produkcyjnego 👉 Gotowe do produkcji w AI Native Cloud — 99.9% SLA, 32K kontekst, wsparcie dla 9 języków, infrastruktura bezserwerowa i dedykowana
61