Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Felicitări echipei @liquidai pentru LFM2-24B-A2B! 🎉 Suport Day-0 pentru LFM2-24B-A2B în versiunea ✅ stabilă vLLM
24B parametri totali, doar 2B activi per token — încape în 32 GB RAM și atinge 293 tok/s pe H100 🔥


088339Cu 22 de ore în urmă
Astăzi lansăm cel mai mare model LFM2 al nostru: LFM2-24B-A2B 🐘
> 24B parametri totali
> 2,3 miliarde active per token
> Construit pe arhitectura noastră hibridă, conștientă de hardware LFM2
Combină designul rapid și eficient din punct de vedere al memoriei LFM2 cu o configurație Mix of Experts, astfel încât doar 2,3B parametri activează fiecare rulare.
Rezultatul: eficiență de top, inferență rapidă a marginilor și scalare log-liniară previzibilă, toate într-o amprentă MoE activă de 32GB.
🧵

5
🎉 Felicitări @Alibaba_Qwen pentru seria de modele medii Qwen3.5 — Qwen3.5-35B-A3B, 122B-A10B și 27B 🚀🚀🚀
Mai multă inteligență, mai puține calcule — exact ceea ce comunitatea open source iubește să vadă!
Verifică rețeta noastră și încearcă-le pe toate cu vLLM chiar azi!

QwenCu 20 de ore în urmă
🚀 Prezentarea seriei de modele medii Qwen 3.5
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Mai multă inteligență, mai puțin calcul.
• Qwen3.5-35B-A3B depășește acum Qwen3-235B-A22B-2507 și Qwen3-VL-235B-A22B — un memento că o arhitectură mai bună, o calitate a datelor și RL mai bune pot avansa inteligența, nu doar un număr mai mare de parametri.
• Qwen3.5-122B-A10B și 27B continuă să reducă diferența dintre modelele de dimensiuni medii și cele de frontieră — mai ales în scenarii cu agenți mai complexe.
• Qwen3.5-Flash este versiunea de producție găzduită aliniată cu 35B-A3B, incluzând:
– 1M lungime de context implicit
– Unelte oficiale încorporate
🔗 Față de îmbrățișare:
🔗 ModelScope:
🔗 Qwen3.5-Flash API:
Încearcă în chatul 👇 Qwen
Flash:
27B:
35B-A3B:
122B-A10B:
Mi-ar plăcea să aud ce construiești cu el.

14
🔥Felicitări lui @Zai_org pentru lansarea GLM-5 — 744B parametri (40B activi), antrenat pe tokenuri 28.5T, integrând DeepSeek Sparse Attention pentru a menține costurile de implementare gestionabile, păstrând în același timp capacitatea de context lung.
vLLM are suport de ziua 0 pentru GLM-5-FP8 cu:
📖 DeepSeek Atenție redusă pentru servicii eficiente pe termen lung
⚡️ Decodare speculativă MTP
⚙️ Apel unelte + mod de gândire
Rețetă cu configurații de servire și benchmark-uri:
🔗

46
Limită superioară
Clasament
Favorite
