跳至內容

梯度下降法

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書

梯度下降法(英語:Gradient descent)是一個一階最佳化算法,通常也稱為最陡下降法,但是不該與近似積分的最陡下降法(英語:Method of steepest descent)混淆。 要使用梯度下降法找到一個函數的局部極小值,必須向函數上當前點對應梯度(或者是近似梯度)的反方向的規定步長距離點進行疊代搜索。如果相反地向梯度正方向疊代進行搜索,則會接近函數的局部極大值點;這個過程則被稱為梯度上升法

描述

[編輯]
梯度下降法的描述。

梯度下降方法基於以下的觀察:如果實值函數在點可微且有定義,那麼函數點沿著梯度相反的方向 下降最多。

因而,如果

對於一個足夠小數值時成立,那麼

考慮到這一點,我們可以從函數的局部極小值的初始估計出發,並考慮如下序列 使得

因此可得到

如果順利的話序列收斂到期望值的局部極小值。注意每次疊代步長可以改變。

右側的圖片示例了這一過程,這裡假設定義在平面上,並且函數圖像是一個形。藍色的曲線是等高線水平集),即函數為常數的集合構成的曲線。紅色的箭頭指向該點梯度的反方向。(一點處的梯度方向與通過該點的等高線垂直)。沿著梯度下降方向,將最終到達碗底,即函數局部極小值的點。

例子

[編輯]

梯度下降法處理一些複雜的非線性函數會出現問題,例如Rosenbrock函數

其最小值在處,數值為。但是此函數具有狹窄彎曲的山谷,最小值就在這些山谷之中,並且谷底很平。最佳化過程是之字形的向極小值點靠近,速度非常緩慢。

下面這個例子也鮮明的示例了"之字"的上升(非下降),這個例子用梯度上升(非梯度下降)法求局部極大值(非局部極小值)。

The gradient descent algorithm in action.(1: contour) The gradient descent algorithm in action.(2: surface) |}

缺點

[編輯]

梯度下降法的缺點包括:[1]

  • 靠近局部極小值時速度減慢。
  • 直線搜索可能會產生一些問題。
  • 可能會「之字型」地下降。

上述例子也已體現出了這些缺點。

參閱

[編輯]

參考文獻

[編輯]
  1. ^ David W. A. Bourne. Steepest Descent Method. (原始內容存檔於2009年2月10日) (英語). 
  • Mordecai Avriel (2003). Nonlinear Programming: Analysis and Methods. Dover Publishing. ISBN 0-486-43227-0.
  • Jan A. Snyman (2005). Practical Mathematical Optimization: An Introduction to Basic Optimization Theory and Classical and New Gradient-Based Algorithms. Springer Publishing. ISBN 0-387-24348-8

外部連結

[編輯]