Giới thiệu LFM2-24B-A2B từ @LiquidAI, một mô hình MoE hybrid với 24B tham số được tối ưu hóa cho các quy trình đa tác nhân có khối lượng lớn. Những người sử dụng AI giờ đây có thể sử dụng LFM2-24B-A2B trên Together AI và hưởng lợi từ việc suy diễn đáng tin cậy cho các quy trình làm việc tác nhân quy mô sản xuất hiệu quả về chi phí.
Điểm nổi bật: 👉 Suy diễn tiết kiệm chi phí — 24B tham số với chỉ 2.3B hoạt động cho phép đồng thời nhiều tác nhân lớn 👉 Mô hình vòng lặp nội bộ nhanh — Tối ưu hóa cho các pipeline đa tác nhân có khối lượng lớn với gọi hàm gốc 👉 Kiến trúc lai — 30 khối tích chập ngắn có cổng + 10 khối GQA cho suy diễn sản xuất hiệu quả 👉 Sẵn sàng cho sản xuất trên AI Native Cloud — SLA 99.9%, 32K ngữ cảnh, hỗ trợ 9 ngôn ngữ, hạ tầng không máy chủ và chuyên dụng
45