Веселое видео от @digitalix о том, как использовать новый back-end mlx.distributed для быстрой инференции LLM с mlx-lm и @exolabs Также спасибо за объяснение разницы между старым и новым простыми словами - хотя масштабирование должно быть немного сублинейным 😉