Video menyenangkan dari @digitalix menggunakan back-end mlx.distributed baru untuk melakukan inferensi LLM cepat dengan mlx-lm dan @exolabs Juga terima kasih telah menjelaskan perbedaan antara yang lama dan yang baru secara sederhana - meskipun penskalaan harus sedikit sub-linier 😉