Além disso, algumas melhorias interessantes no back-end CUDA, incluindo: - Matmuls quantizados-quantizados para NVFP4 e MXFP8 por @NasFilippova - Agora pode `pip install mlx[cuda13]` para x86 e arm (por exemplo, DGX Spark) - Pré-preenchimento e treinamento de LLM muito mais rápidos, graças a @zcbenz e @angeloskath