Memperkenalkan LFM2-24B-A2B dari @LiquidAI, model MoE hibrida dengan parameter 24B yang dioptimalkan untuk alur multi-agen volume tinggi. Penduduk asli AI sekarang dapat menggunakan LFM2-24B-A2B di Together AI dan mendapatkan manfaat dari inferensi yang andal untuk alur kerja agen skala produksi yang hemat biaya.
Sorotan: 👉 Inferensi hemat biaya — parameter 24B dengan hanya 2,3 miliar aktif yang memungkinkan konkurensi agen besar-besaran 👉 Model loop dalam yang cepat — Dioptimalkan untuk alur multi-agen bervolume tinggi dengan panggilan fungsi asli 👉 Arsitektur hibrida — 30 blok konvolusi pendek berpagar + 10 blok GQA untuk inferensi produksi yang efisien 👉 Siap produksi di AI Native Cloud — 99,9% SLA, konteks 32K, dukungan 9 bahasa, infrastruktur nirserver dan khusus
53