Diffusionsspråkmodeller (DLM) är bevisligen optimala parallella samplare! I min nya artikel med @nhaghtal och @wjmzbmr1 visar vi att DLM:er kan provta distributioner med så få möjliga steg, och vidare med så få möjliga minnen som möjligt med revision/ommaskering.