Mensen die zich bezighouden met deep learning hebben de neiging te geloven dat wanneer de gradiënten (1e orde) vastlopen, de kromming (2e orde/Hessian) zeker de oplossing is. Het kan goed zijn dat de betere stap in de tegenovergestelde richting ligt: 0e-orde methoden.