Vídeo divertido de @digitalix usando o novo back-end mlx.distributed para fazer inferência rápida de LLM com mlx-lm e @exolabs Também obrigado por explicar a diferença entre o antigo e o novo em termos simples – embora a escala deva ser um pouco sublinear 😉