Die Leute im Bereich des Deep Learning neigen dazu zu glauben, dass, wenn die Gradienten (1. Ordnung) stecken bleiben, die Krümmung (2. Ordnung/Hessian) die Antwort ist. Es könnte jedoch sein, dass der bessere Schritt in die entgegengesetzte Richtung geht: Methoden 0. Ordnung.