Tencent выпустила WeDLM-8B-Instruct Модель диффузного языка, которая работает в 3-6 раз быстрее, чем оптимизированная для vLLM Qwen3-8B, в задачах математического рассуждения. - 3-6 раз быстрее, чем оптимизированная для vLLM Qwen3-8B, в задачах математического рассуждения - Превосходит базовую Qwen3-8B-Instruct по большинству бенчмарков - Совместима с нативным KV кэшем (FlashAttention, PagedAttention, CUDA Graphs)