"Si nous croyons en tant que société que dans 5 et 10 ans ces modèles vont être critiques pour prendre des décisions assez lourdes, alors je ne pense pas que l'approche de la boîte noire soit évolutive à long terme. L'interprétabilité mécaniste consiste vraiment à examiner les poids du modèle et à essayer de comprendre : 'Pourquoi le modèle a-t-il agi comme il l'a fait ?'" Deedy explique le danger des modèles de boîte noire et l'utilité de l'interprétabilité mécaniste à mesure que les modèles deviennent plus importants. @deedydas