Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
LFM2-24B-A2B @liquidai ekibine tebrikler! 🎉 VLLM kararlı versiyonda ✅ LFM2-24B-A2B için 0. gün desteği
Toplam 24B param, her token başına sadece 2B aktif — 32 GB RAM sığıyor ve H100'de 🔥 293 tok/s hızına ulaşıyor


08833922 Sa Önce
Bugün, en büyük LFM2 modelimizi piyasaya sürdük: LFM2-24B-A2B 🐘
> 24B toplam parametreleri
> her token başına 2.3B aktif
> Hibrit, donanım farkında LFM2 mimarimiz üzerine inşa edilmiştir
LFM2'nin hızlı ve bellek verimli tasarımını Pisporlerin Karışımı kurulumuyla birleştiriyor, böylece her çalışmada sadece 2.3B parametre aktive oluyor.
Sonuç olarak: sınıfının en iyi verimliliği, hızlı kenar çıkarımı ve öngörülebilir log-lineer ölçeklendirme, hepsi 32GB, 2B-aktif MoE alanında.
🧵

6
🎉 Qwen3.5 Orta Model Serisi — Qwen3.5-35B-A3B, 122B-A10B ve 27B 🚀🚀🚀 — @Alibaba_Qwen'yi tebrik ederiz
Daha fazla zeka, daha az hesaplama — tam da açık kaynak topluluğunun görmeyi sevdiği şey!
Tarifimize göz atın ve bugün vLLM ile hepsini deneyin!

Qwen20 Sa Önce
🚀 Qwen 3.5 Orta Model Serisi'nin Tanıtımı
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Daha fazla zeka, daha az hesaplama.
• Qwen3.5-35B-A3B artık Qwen3-235B-A22B-2507 ve Qwen3-VL-235B-A22B'yi geride bırakıyor — daha iyi mimari, veri kalitesi ve RL'nin sadece daha büyük parametre sayılarını değil, zekayı ileriye taşıyabileceğini hatırlatıyor.
• Qwen3.5-122B-A10B ve 27B, özellikle daha karmaşık ajan senaryolarında orta boyutlu ve öncü modeller arasındaki farkı daraltmaya devam ediyor.
• Qwen3.5-Flash, 35B-A3B ile uyumlu ev sahibi üretim versiyonudur ve şunları içerir:
– Varsayılan olarak 1M bağlam uzunluğu
– Resmi yerleşik araçlar
🔗 Sarılma Yüz:
🔗 ModelScope:
🔗 qwen3.5-Flash API:
Qwen Chat'te 👇 dene.
Flash:
27B:
35B-A3B:
122B-A10B:
Onunla ne inşa ettiğini duymak isterim.

15
🔥GLM-5'i başlattığı @Zai_org'yi tebrik ederiz — 744B parametre (40B aktif), 28.5T tokenlarda eğitim almış, DeepSeek Sparse Attention'ı entegre ederek dağıtım maliyetini yönetebilir tutuyor ve uzun bağlam kapasitesini koruyor.
vLLM, GLM-5-FP8 için 0. gün desteğine sahiptir:
📖 DeepSeek Sparse Attention için verimli uzun bağlam hizmeti için
⚡️ MTP spekülatif çözümleme
⚙️ Araç çağırma + düşünme modu
Servis yapılandırmaları ve kıyaslamalarla tarif:
🔗

47
En İyiler
Sıralama
Takip Listesi
