Divertido video de @digitalix sobre el uso del nuevo back-end mlx.distributed para realizar inferencias rápidas de LLM con mlx-lm y @exolabs También gracias por explicar la diferencia entre lo antiguo y lo nuevo en términos simples, aunque la escalabilidad debería ser ligeramente sub-lineal 😉