🚀 vLLM právě dosáhl 70 tisíc hvězd na GitHubu! 🎉 Engine se od posledního milníku neustále vyvíjel rychle. Intenzivně tlačíme na velkoplošné poskytování — produkční úroveň podpory více uzlů na NVIDIA Blackwell s WideEP a expertním paralelismem, což umožňuje obsloužit největší modely ve velkém měřítku. Více modelů, více hardwaru, asynchronní plánování pro vyšší propustnost, streamování v reálném čase pro řeč a zvuk a rostoucí multimodální příběh napříč textem, obrazem, videem a hlasem. Obrovské díky patří našim sponzorům, 2 100+ přispěvatelům, přátelům z @PyTorch, @huggingface Transformers a modelovým laboratořím, se kterými úzce spolupracujeme na podpoře od začátku dne — @deepseek_ai, @Alibaba_Qwen, @MiniMax_AI, @Kimi_Moonshot, @MistralAI a partnerům @NVIDIAAIDev, @RedHat_AI, @AIatAMD, @AIatMeta a mnoha dalším, které sem nemůžeme pojmout — všichni pomáhají přiblížit vLLM na více platforem a více lidí. Vy si tento ekosystém vytvoříte tím, čím je. 💛💙 Také v této době byla @inferact založena tvůrci a hlavními správci vLLM, věnovaná rozvoji vLLM a zlevnění a rychlejší inference. Pokračujeme do další kapitoly — společně. Jednoduché, rychlé a levné LLM servírování pro všechny. 🌍