Представляем LFM2-24B-A2B от @LiquidAI, гибридную модель MoE с 24 миллиардами параметров, оптимизированную для многопоточных агентских конвейеров. Теперь AI-нативы могут использовать LFM2-24B-A2B на Together AI и получать надежные результаты для экономически эффективных рабочих процессов на производственном уровне.
Основные моменты: 👉 Экономически эффективный вывод — 24 миллиарда параметров с только 2,3 миллиарда активных, что позволяет обеспечить массовую параллельность агентов 👉 Быстрая внутренняя модель — Оптимизирована для высокопроизводительных многопользовательских конвейеров с нативным вызовом функций 👉 Гибридная архитектура — 30 запираемых коротких сверток + 10 блоков GQA для эффективного производственного вывода 👉 Готово к производству в AI Native Cloud — 99,9% SLA, 32K контекст, поддержка 9 языков, безсерверная и выделенная инфраструктура
52