"Jeśli jako społeczeństwo wierzymy, że za 5 i 10 lat te modele będą miały kluczowe znaczenie przy podejmowaniu dość poważnych decyzji, to nie sądzę, aby podejście czarnej skrzynki było długoterminowo skalowalne. Mechanistyczna interpretowalność naprawdę polega na analizie wag modelu i próbie zrozumienia, 'Dlaczego model zrobił to, co zrobił?' Deedy wyjaśnia niebezpieczeństwo modeli czarnej skrzynki oraz użyteczność mechanistycznej interpretowalności, gdy modele stają się coraz ważniejsze. @deedydas