Vídeo divertido de @digitalix usando el nuevo back-end mlx.distributed para hacer inferencia rápida de LLM con mlx-lm y @exolabs También gracias por explicar la diferencia entre lo antiguo y lo nuevo en términos sencillos, aunque el escalado debería ser ligeramente sublineal 😉