Tencent veröffentlicht WeDLM-8B-Instruct Ein Diffusions-Sprachmodell, das 3-6× schneller läuft als das vLLM-optimierte Qwen3-8B bei mathematischen Denkaufgaben. - 3-6× schneller als das vLLM-optimierte Qwen3-8B bei mathematischen Denkaufgaben - Übertrifft das Basis-Qwen3-8B-Instruct in den meisten Benchmarks - Native KV-Cache-kompatibel (FlashAttention, PagedAttention, CUDA Graphs)