Tencent julkaisee WeDLM-8B-Instructin Diffuusiokielimalli, joka toimii 3–6× nopeammin kuin vLLM-optimoitu Qwen3-8B matemaattisissa päättelytehtävissä. -3-6× nopeampi kuin vLLM-optimoitu Qwen3-8B matemaattisissa päättelytehtävissä - Päihittää perus-Qwen3-8B-Instructin useimmissa testeissä - Natiivi KV-välimuistin yhteensopiva (FlashAttention, PagedAttention, CUDA Graphs)