Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Gratulerer til @liquidai-teamet med LFM2-24B-A2B! 🎉 Day-0-støtte for LFM2-24B-A2B i vLLM stabil versjon ✅
24 milliarder totale parametere, bare 2 milliarder aktive per token — får plass i 32 GB RAM og når 293 tok/s på H100 🔥


08833922 timer siden
I dag lanserer vi vår største LFM2-modell: LFM2-24B-A2B 🐘
> 24B totale parametere
> 2,3 milliarder aktive per token
> Bygget på vår hybride, maskinvarebevisste LFM2-arkitektur
Den kombinerer LFM2s raske, minneeffektive design med et Mixture of Experts-oppsett, slik at kun 2,3 milliarder parametere aktiverer hver kjøring.
Resultatet: beste effektivitet i klassen, rask kantinferens og forutsigbar log-lineær skalering, alt i et MoE-fotavtrykk på 32GB, 2B aktivt.
🧵

🎉 Gratulerer til @Alibaba_Qwen med Qwen3.5 Medium Model Series — Qwen3.5-35B-A3B, 122B-A10B og 27B 🚀🚀🚀
Mer intelligens, mindre datakraft – akkurat det open source-miljøet elsker å se!
Sjekk ut oppskriften vår og prøv dem alle med vLLM i dag!

Qwen20 timer siden
🚀 Introduksjon av Qwen 3.5 Medium Model Series
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Mer intelligens, mindre beregning.
• Qwen3.5-35B-A3B overgår nå Qwen3-235B-A22B-2507 og Qwen3-VL-235B-A22B — en påminnelse om at bedre arkitektur, datakvalitet og RL kan føre intelligens fremover, ikke bare større parameterantall.
• Qwen3.5-122B-A10B og 27B fortsetter å redusere gapet mellom mellomstore og frontmodeller — spesielt i mer komplekse agentscenarier.
• Qwen3.5-Flash er den hostede produksjonsversjonen tilpasset 35B-A3B, med:
– 1M kontekstlengde som standard
– Offisielle innebygde verktøy
🔗 Klemmeansikt:
🔗 ModelScope:
🔗 Qwen3.5-Flash API:
Prøv i Qwen Chat 👇
Flash:
27B:
35B-A3B:
122B-A10B:
Vil gjerne høre hva du bygger med den.

9
🔥Gratulerer til @Zai_org med lanseringen av GLM-5 — 744B parametere (40B aktive), trent på 28,5T-tokens, som integrerer DeepSeek Sparse Attention for å holde distribusjonskostnadene håndterbare samtidig som langtidskapasiteten bevares.
vLLM har day-0-støtte for GLM-5-FP8 med:
📖 DeepSeek Sparse Attention for effektiv langtids-kontekstservering
⚡️ MTP spekulativ dekoding
⚙️ Verktøykall + tenkemodus
Oppskrift med serveringskonfigurasjoner og benchmarks:
🔗

41
Topp
Rangering
Favoritter
