Gradientinis metodas konverguoja,
kai
diferencijuojama ir iškila.
Newton'o ir Kvazi-Newton'o metodai
konverguoja, kai
du kartus diferencijuojama ir iškila.
Gradientinis metodas konverguoja
letai
Newton'o ir kvazi-Newton'o metodai
konverguoja greitai
kur
optimumas.
Newton'o metodo trukumas-
reikia surasti
atvitkštini Hessiana
. Todel, Newton'o metodas nedirba kai
.
Šio trukumo neturi kvazi-Newton'o metodas.
jonas mockus
2004-03-01