Também algumas melhorias legais no back-end do CUDA, incluindo: - Quantizar-quantizar matmuls para NVFP4 e MXFP8 por @NasFilippova - Agora você pode 'pip install mlx[cuda13]' para x86 e arm (ex.: DGX Spark) - Prepreenchimento e treinamento de LLM muito mais rápidos graças à @zcbenz e @angeloskath