🚀 ¡vLLM acaba de alcanzar 70.000 estrellas en GitHub! 🎉 El motor ha seguido evolucionando rápidamente desde el último hito. Hemos estado presionando mucho por el servicio a gran escala — soporte multi-nodo de grado de producción en NVIDIA Blackwell con WideEP y paralelismo experto, lo que hace práctico atender los modelos más grandes a gran escala. Más modelos, más hardware, programación asincrónica para mayor rendimiento, streaming en tiempo real para voz y audio, y una historia multimodal en crecimiento entre texto, visión, vídeo y voz. Un enorme agradecimiento a nuestros patrocinadores, nuestros 2.100+ colaboradores, amigos de @PyTorch, @huggingface Transformers y los laboratorios de modelos con los que trabajamos estrechamente para ofrecer soporte de día 0 — @deepseek_ai, @Alibaba_Qwen, @MiniMax_AI, @Kimi_Moonshot, @MistralAI, y socios @NVIDIAAIDev, @RedHat_AI, @AIatAMD, @AIatMeta y muchos más que no cabemos aquí — todos ayudando a llevar vLLM a más plataformas y más personas. Tú haces que este ecosistema sea lo que es. 💛💙 También durante este tiempo, @inferact fue fundada por los creadores y mantenedores principales de vLLM, dedicada a hacer crecer vLLM y hacer que la inferencia fuera más barata y rápida. Pasando al siguiente capítulo — juntos. Servicio de LLM fácil, rápido y barato para todos. 🌍