来自 @digitalix 的有趣视频,介绍了如何使用新的 mlx.distributed 后端快速进行 LLM 推理,配合 mlx-lm 和 @exolabs。 也感谢你用简单的术语解释了旧版和新版之间的区别——尽管扩展应该是略微次线性的 😉