Pour les non-experts : les modèles Frontier ont été entraînés sur une grande partie de tout le savoir humain - y compris les mathématiques avancées, la physique, la médecine, la programmation. Ils ont d'énormes capacités latentes. Un processus de "fine-tuning" relativement peu coûteux (dans ce cas, LoRA) peut-il adapter le modèle pour le rendre plus utile pour un cas d'utilisation spécifique ? C'est ce que Thinking Machines explore. Notez que cela repose sur l'accès à des modèles frontier open source.