Inoltre, ci sono alcuni bei miglioramenti al back-end CUDA, tra cui: - Matmul quantizzati-quantizzati per NVFP4 e MXFP8 da @NasFilippova - Ora puoi `pip install mlx[cuda13]` per x86 e arm (ad esempio, DGX Spark) - Prefill e addestramento LLM molto più veloci grazie a @zcbenz e @angeloskath