Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Onnittelut @liquidai-tiimille LFM2-24B-A2B:stä! 🎉 Day-0 tuki LFM2-24B-A2B:lle vLLM-vakaassa versiossa ✅
Yhteensä 24B parametria, vain 2B aktiivista per token — mahtuu 32 GB RAM-tilaan ja saavuttaa 293 tok/s H100 🔥:lla


08833922 tuntia sitten
Tänään julkaisemme suurimman LFM2-mallimme: LFM2-24B-A2B 🐘
> 24B kokonaisparametrit
> 2,3B aktiivista per token
> Rakennettu hybridin, laitteistopohjaisen LFM2-arkkitehtuurimme pohjalta
Se yhdistää LFM2:n nopean ja muistitehokkaan suunnittelun Mixture of Experts -kokoonpanoon, joten jokaisella ajokerralla aktivoi vain 2,3B parametria.
Tuloksena oli luokkansa paras tehokkuus, nopea reunapäättely ja ennustettava log-lineaarinen skaalaus, kaikki 32GB:ssa, 2B-aktiivisessa MoE-jalanjäljessä.
🧵

1
🎉 Onnittelut @Alibaba_Qwen:lle Qwen3.5 Medium Model Series -sarjasta — Qwen3.5-35B-A3B, 122B-A10B ja 27B 🚀🚀🚀
Enemmän älykkyyttä, vähemmän laskentatehoa — juuri sitä, mitä avoimen lähdekoodin yhteisö rakastaa nähdä!
Tutustu reseptiimme ja kokeile niitä kaikkia vLLM:n kanssa jo tänään!

Qwen20 tuntia sitten
🚀 Qwen 3.5 Medium Model -sarjan esittely
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Enemmän älykkyyttä, vähemmän laskentaa.
• Qwen3.5-35B-A3B ylittää nyt Qwen3-235B-A22B-2507:n ja Qwen3-VL-235B-A22B:n — muistutus siitä, että parempi arkkitehtuuri, datan laatu ja RL voivat viedä älykkyyttä eteenpäin, eivät vain suurempia parametrimääriä.
• Qwen3.5-122B-A10B ja 27B kaventavat edelleen keskikokoisten ja rajamallien välistä eroa — erityisesti monimutkaisemmissa aineskenaarioissa.
• Qwen3.5-Flash on isännöity tuotantoversio, joka on linjassa 35B-A3B:n kanssa ja sisältää:
– 1M kontekstin pituus oletuksena
– Viralliset sisäänrakennetut työkalut
🔗 Halauskasvot:
🔗 ModelScope:
🔗 Qwen3.5-Flash API:
Kokeile Qwen Chatissa 👇
Flash:
27B:
35B-A3B:
122B-A10B:
Olisi hienoa kuulla, mitä rakennat sillä.

10
🔥Onnittelut @Zai_org GLM-5:n lanseerauksesta — 744B parametrit (40B aktiivinen), koulutettu 28,5T tokeneilla, integroitu DeepSeek Sparse Attention, jotta käyttöönottokustannukset pysyvät hallittavissa säilyttäen samalla pitkän kontekstin kapasiteetin.
vLLM tukee GLM-5-FP8:aa päivännolla:
📖 DeepSeek Sparse Attention tehokkaaseen pitkäaikaiseen palveluun
⚡️ MTP:n spekulatiivinen dekoodaus
⚙️ Työkalukutsu + ajattelutila
Resepti tarjoilukonfiguraatioineen ja vertailuineen:
🔗

42
Johtavat
Rankkaus
Suosikit
