Esittelen LFM2-24B-A2B vuodelta @LiquidAI, hybridi-MoE-mallin, jossa on 24B-parametrit ja optimoitu suurille monitoimiputkille. Tekoälyn alkuperäiset käyttäjät voivat nyt käyttää LFM2-24B-A2B:tä Together AI:ssa ja hyötyä luotettavasta päättelystä kustannustehokkaisiin, tuotantomittakaavaisiin agenttisiin työnkulkuihin.
Kohokohdat: 👉 Kustannustehokas päättely — 24B parametria, joista vain 2,3B on aktiivinen, mahdollistaa massiivisen agenttien rinnakkaisvaikutuksen 👉 Nopea sisäinen silmukkamalli — Optimoitu suurille moniagenttiputkille, joissa on natiivifunktiokutsu 👉 Hybridiarkkitehtuuri — 30 portattua lyhyttä konvoluutiolohkoa + 10 GQA-lohkoa tehokkaaseen tuotantopäättelyyn 👉 Tuotantovalmius AI Native Cloudissa — 99,9 % SLA, 32K konteksti, 9 kielen tuki, palvelinvapaa ja omistettu infrastruktuuri
38