For ikke-eksperter: Frontier-modeller har blitt trent på en stor del av all menneskelig kunnskap - inkludert avansert matematikk, fysikk, medisin, koding. De har enorme latente evner. Kan en relativt billig "finjusteringsprosess" (i dette tilfellet, LoRA) tilpasse modellen for å gjøre den mer nyttig for et spesifikt brukstilfelle? Det er det Thinking Machines utforsker. Merk at dette er avhengig av tilgang til grensemodeller med åpen kildekode.