🚀 vLLM acaba de alcanzar 70K estrellas en GitHub! 🎉 El motor ha seguido evolucionando rápidamente desde el último hito. Hemos estado trabajando arduamente en el servicio a gran escala: soporte multi-nodo de grado de producción en NVIDIA Blackwell con WideEP y paralelismo experto, haciendo práctico servir los modelos más grandes a gran escala. Más modelos, más hardware, programación asíncrona para mayor rendimiento, transmisión en tiempo real para voz y audio, y una historia multimodal en crecimiento a través de texto, visión, video y voz. Un enorme agradecimiento a nuestros patrocinadores, a nuestros más de 2,100 contribuyentes, amigos de @PyTorch, @huggingface Transformers, y los laboratorios de modelos con los que trabajamos estrechamente para ofrecer soporte desde el día 0: @deepseek_ai, @Alibaba_Qwen, @MiniMax_AI, @Kimi_Moonshot, @MistralAI, y socios @NVIDIAAIDev, @RedHat_AI, @AIatAMD, @AIatMeta, y muchos más que no podemos incluir aquí: todos ayudando a llevar vLLM a más plataformas y más personas. Ustedes hacen que este ecosistema sea lo que es. 💛💙 También durante este tiempo, @inferact fue fundado por los creadores y mantenedores principales de vLLM, dedicados a hacer crecer vLLM y hacer que la inferencia sea más barata y rápida. Vamos al siguiente capítulo — juntos. Servicio de LLM fácil, rápido y barato para todos. 🌍