Zábavné video od @digitalix o využití nového back-endu mlx.distributed pro rychlou inferenci LLM s mlx-lm a @exolabs Také díky za jednoduché vysvětlení rozdílu mezi starým a novým – i když škálování by mělo být mírně sublineární 😉