Divertente video di @digitalix su come utilizzare il nuovo back-end mlx.distributed per effettuare inferenze LLM veloci con mlx-lm e @exolabs Grazie anche per aver spiegato la differenza tra il vecchio e il nuovo in termini semplici - anche se la scalabilità dovrebbe essere leggermente sub-lineare 😉