"Wenn wir als Gesellschaft glauben, dass diese Modelle in 5 und 10 Jahren in der Zukunft entscheidend wichtig sein werden, um ziemlich gewichtige Entscheidungen zu treffen, dann denke ich nicht, dass der Black-Box-Ansatz langfristig skalierbar ist. Mechanistische Interpretierbarkeit geht wirklich in die Gewichte des Modells und versucht herauszufinden: 'Warum hat das Modell getan, was es getan hat?' Deedy erklärt die Gefahr von Black-Box-Modellen und den Nutzen der mechanistischen Interpretierbarkeit, da Modelle immer wichtiger werden. @deedydas