Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Поздравляем команду @liquidai с LFM2-24B-A2B! 🎉 Поддержка Day-0 для LFM2-24B-A2B в стабильной версии vLLM ✅
24B всего параметров, только 2B активных на токен — помещается в 32 ГБ ОЗУ и достигает 293 ток/с на H100 🔥


08833924 февр., 22:22
Сегодня мы представляем нашу крупнейшую модель LFM2: LFM2-24B-A2B 🐘
> 24B всего параметров
> 2.3B активных на токен
> Построена на нашей гибридной, аппаратно-осведомленной архитектуре LFM2
Она сочетает в себе быструю, экономичную по памяти конструкцию LFM2 с настройкой Mixture of Experts, так что только 2.3B параметров активируются при каждом запуске.
Результат: эффективность лучшего в своем классе, быстрая инференция на краю и предсказуемое лог-линейное масштабирование, все это в 32GB, 2B-активном MoE.

15
🎉 Поздравляем @Alibaba_Qwen с серией моделей Qwen3.5 Medium — Qwen3.5-35B-A3B, 122B-A10B и 27B 🚀🚀🚀
Больше интеллекта, меньше вычислений — именно то, что любит видеть сообщество с открытым исходным кодом!
Посмотрите наш рецепт и попробуйте все с vLLM сегодня!

Qwen23 часа назад
🚀 Представляем серию моделей Qwen 3.5 Medium
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ Больше интеллекта, меньше вычислений.
• Qwen3.5-35B-A3B теперь превосходит Qwen3-235B-A22B-2507 и Qwen3-VL-235B-A22B — напоминание о том, что лучшая архитектура, качество данных и RL могут продвигать интеллект вперед, а не только большее количество параметров.
• Qwen3.5-122B-A10B и 27B продолжают сокращать разрыв между моделями среднего размера и передовыми моделями — особенно в более сложных сценариях агентов.
• Qwen3.5-Flash — это версия для продакшена, соответствующая 35B-A3B, с:
– 1M длиной контекста по умолчанию
– Официальными встроенными инструментами
🔗 Hugging Face:
🔗 ModelScope:
🔗 Qwen3.5-Flash API:
Попробуйте в Qwen Chat 👇
Flash:
27B:
35B-A3B:
122B-A10B:
Будем рады услышать, что вы с этим создадите.

28
🔥Поздравляем @Zai_org с запуском GLM-5 — 744B параметров (40B активных), обученных на 28.5T токенов, интегрируя DeepSeek Sparse Attention для управления затратами на развертывание при сохранении возможности работы с длинным контекстом.
vLLM имеет поддержку GLM-5-FP8 с первого дня с:
📖 DeepSeek Sparse Attention для эффективного обслуживания длинного контекста
⚡️ Спекулятивное декодирование MTP
⚙️ Вызов инструментов + режим мышления
Рецепт с конфигурациями обслуживания и бенчмарками:
🔗

62
Топ
Рейтинг
Избранное
