Morsom video fra @digitalix om å bruke den nye mlx.distributed backenden for å gjøre rask LLM-inferens med mlx-lm og @exolabs Takk også for at du forklarte forskjellen mellom det gamle og det nye på en enkel måte – selv om skaleringen bør være litt sublineær 😉