Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Gratulacje dla zespołu @liquidai z okazji LFM2-24B-A2B! 🎉 Wsparcie od dnia 0 dla LFM2-24B-A2B w stabilnej wersji vLLM ✅
24B całkowitych parametrów, tylko 2B aktywnych na token — mieści się w 32 GB RAM i osiąga 293 tok/s na H100 🔥


08833922 godz. temu
Dziś wydajemy nasz największy model LFM2: LFM2-24B-A2B 🐘
> 24B całkowitych parametrów
> 2.3B aktywnych na token
> Zbudowany na naszej hybrydowej, świadomej sprzętu architekturze LFM2
Łączy szybki, efektywny pod względem pamięci design LFM2 z ustawieniem Mixture of Experts, dzięki czemu tylko 2.3B parametrów aktywuje się przy każdym uruchomieniu.
Rezultat: najlepsza w swojej klasie efektywność, szybkie wnioskowanie na krawędzi i przewidywalne log-liniowe skalowanie, wszystko w 32GB, 2B-aktywnym MoE.

7
🎉 Gratulacje dla @Alibaba_Qwen z okazji serii modeli Qwen3.5 Medium — Qwen3.5-35B-A3B, 122B-A10B i 27B 🚀🚀🚀
Więcej inteligencji, mniej obliczeń — dokładnie to, co społeczność open source uwielbia widzieć!
Sprawdź nasz przepis i wypróbuj je wszystkie z vLLM już dziś!

Qwen20 godz. temu
🚀 Przedstawiamy serię modeli Qwen 3.5 Medium
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Więcej inteligencji, mniej obliczeń.
• Qwen3.5-35B-A3B teraz przewyższa Qwen3-235B-A22B-2507 i Qwen3-VL-235B-A22B — przypomnienie, że lepsza architektura, jakość danych i RL mogą posunąć inteligencję naprzód, a nie tylko większa liczba parametrów.
• Qwen3.5-122B-A10B i 27B nadal zmniejszają różnicę między modelami średniej wielkości a modelami granicznymi — szczególnie w bardziej złożonych scenariuszach agentów.
• Qwen3.5-Flash to wersja produkcyjna hostowana, zgodna z 35B-A3B, z następującymi cechami:
– 1M długości kontekstu domyślnie
– Oficjalne wbudowane narzędzia
🔗 Hugging Face:
🔗 ModelScope:
🔗 API Qwen3.5-Flash:
Wypróbuj w Qwen Chat 👇
Flash:
27B:
35B-A3B:
122B-A10B:
Chętnie usłyszymy, co zbudujesz z tym.

16
🔥Gratulacje dla @Zai_org z okazji uruchomienia GLM-5 — 744B parametrów (40B aktywnych), wytrenowanych na 28,5T tokenów, integrujących DeepSeek Sparse Attention, aby utrzymać koszty wdrożenia na rozsądnym poziomie, jednocześnie zachowując zdolność do długiego kontekstu.
vLLM ma wsparcie od dnia 0 dla GLM-5-FP8 z:
📖 DeepSeek Sparse Attention dla efektywnego serwowania długiego kontekstu
⚡️ MTP spekulacyjne dekodowanie
⚙️ Wywoływanie narzędzi + tryb myślenia
Przepis z konfiguracjami serwowania i benchmarkami:
🔗

48
Najlepsze
Ranking
Ulubione
