Video distractiv de la @digitalix folosind noul back-end mlx.distributed pentru a face inferență rapidă LLM cu mlx-lm și @exolabs Mulțumesc și pentru explicarea diferenței dintre vechiul și cel nou în termeni simpli – deși scalarea ar trebui să fie ușor subliniară 😉