Vidéo amusante de @digitalix sur l'utilisation du nouveau back-end mlx.distributed pour effectuer des inférences LLM rapides avec mlx-lm et @exolabs Merci aussi d'expliquer la différence entre l'ancien et le nouveau en termes simples - bien que l'échelle devrait être légèrement sous-linéaire 😉