@LiquidAI年製のLFM2-24B-A2Bを導入します。これは、大量のマルチエージェントパイプラインに最適化された24Bパラメータを持つハイブリッドMoEモデルです。AIネイティブはTogether AI上でLFM2-24B-A2Bを使い、コスト効率の高い生産規模のエージェントワークフローで信頼性の高い推論の恩恵を受けることができます。
ハイライト: 👉 コスト効率の高い推論 — 24Bパラメータで23Bのみのアクティブパラメータで、大規模なエージェント同時実行を可能にします 👉 高速インナーループモデル — ネイティブ関数呼び出しを持つ大量マルチエージェントパイプラインに最適化されています 👉 ハイブリッドアーキテクチャ — 効率的な生産推論のために30ゲートのゲート付きショート畳み込みブロック+10のGQAブロック 👉 AIネイティブクラウド上で本番環境対応 — SLA99.9%、32Kコンテキスト、9言語対応、サーバーレスおよび専用インフラ
39