Lustiges Video von @digitalix über die Verwendung des neuen mlx.distributed Back-Ends für schnelle LLM-Inferenz mit mlx-lm und @exolabs Danke auch, dass du den Unterschied zwischen dem alten und dem neuen in einfachen Worten erklärt hast - obwohl das Skalieren etwas sublinear sein sollte 😉