Dropout

維基百科,自由的百科全書

Dropout是Google提出的一種正則化技術[1],用以在人工神經網絡中對抗過擬合。Dropout有效的原因,是它能夠避免在訓練數據上產生複雜的相互適應。[1]Dropout這個術語代指在神經網絡中丟棄部分神經元(包括隱藏神經元和可見神經元)。[2][3]在訓練階段,dropout使得每次只有部分網絡結構得到更新,因而是一種高效的神經網絡模型平均化的方法。[4]

參考文獻[編輯]

  1. ^ 1.0 1.1 [1],「System and method for addressing overfitting in a neural network」 頁面存檔備份,存於網際網路檔案館存档副本. [2019-12-11]. 原始內容存檔於2021-07-25. 
  2. ^ Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Jmlr.org. [July 26, 2015]. (原始內容存檔於2019-12-05).  參數|newspaper=與模板{{cite web}}不匹配(建議改用{{cite news}}|website=) (幫助)
  3. ^ Warde-Farley, David; Goodfellow, Ian J.; Courville, Aaron; Bengio, Yoshua. An empirical analysis of dropout in piecewise linear networks. 2013-12-20. arXiv:1312.6197可免費查閱 [stat.ML]. 
  4. ^ Hinton, Geoffrey E.; Srivastava, Nitish; Krizhevsky, Alex; Sutskever, Ilya; Salakhutdinov, Ruslan R. Improving neural networks by preventing co-adaptation of feature detectors. 2012. arXiv:1207.0580可免費查閱 [cs.NE].