Aussi quelques belles améliorations du back-end CUDA, y compris : - Matmuls quantisés-quantisés pour NVFP4 et MXFP8 par @NasFilippova - Vous pouvez maintenant `pip install mlx[cuda13]` pour x86 et arm (par exemple, DGX Spark) - Pré-remplissage et entraînement LLM beaucoup plus rapides grâce à @zcbenz et @angeloskath