高斯过程:修订间差异

维基百科,自由的百科全书
删除的内容 添加的内容
// Edit via Wikiplus
Sanford.poon留言 | 贡献
无编辑摘要
标签加入博客链接 检查外部链接 增加广告宣传内容
第1行: 第1行:
在[[概率论]]和[[统计学]]中,'''高斯过程'''({{lang-en|'''Gaussian process'''}})是[[随机变量|观测值]]出现在一个连续域(例如时间或空间)的统计模型。在高斯过程中,连续输入空间中每个点都是与一个[[正态分布]]的[[随机变量]]相关联。此外,这些随机变量的每个有限集合都有一个[[多元正态分布]]。高斯过程的分布是所有那些(限多个)随机变量的联合分布,正因如此,它是连续域(例如时间或空间)的分布。
在[[概率论]]和[[统计学]]中,'''高斯过程'''({{lang-en|'''Gaussian process'''}})是[[随机变量|观测值]]出现在一个连续域(例如时间或空间)的统计模型。在高斯过程中,连续输入空间中每个点都是与一个[[正态分布]]的[[随机变量]]相关联。此外,这些随机变量的每个有限集合都有一个[[多元正态分布]]。高斯过程的分布是所有那些(限多个)随机变量的联合分布,正因如此,它是连续域(例如时间或空间)的分布。

高斯過程被認為是一種{{le|機器學習|machine learning|機器學習}}算法,是以{{le|惰性學習|lazy learning|惰性學習}}方式,利用點與點之間同質性的度量作為{{le|核函數|Kernel function|核函數}},以從輸入的訓練數據預測未知點的值。其預測結果不僅包含該點的值,而同時包含不確定性的資料-它的一維高斯分佈(即該點的{{le|邊際分佈|marginal distribution|邊際分佈}})。<ref>{{cite web|url=http://platypusinnovation.blogspot.co.uk/2016/05/a-simple-intro-to-gaussian-processes.html|title=Platypus Innovation: A Simple Intro to Gaussian Processes (a great data modelling tool)|publisher=}}</ref>

對於某些核函數,可以使用矩陣代數(見{{le|克里金插值法|kriging|克里金法}}條目)來計算預測值。若核函數有代數參數,則通常使用軟體以擬合高斯過程的模型。

由於高斯過程是基於高斯分佈([[正態分佈]])的概念,故其以[[卡爾·弗里德里希·高斯]]為名。可以把高斯過程看成多元正態分佈的無限維廣義延伸。

高斯過程常用於[[概率模型|統計建模]]中,而使用高斯過程的模型可以得到高斯過程的屬性。例如,一隨機過程以高斯過程建模,則各種導出量(包括隨機過程在一定範圍次數內的平均值,及使用小範圍採樣次數及採樣值進行平均值預測的誤差)的分佈即能輕易得出。

==定義==
'''高斯過程'''為一[[概率分布|統計學分佈]],可定義為''X''<sub>''t''</sub>, ''t'' ∈ ''T'',其任一有限的[[抽樣|取樣值]]的[[線性組合]]均有共同的[[多元正態分佈]]。更準確地,取樣函數''X''<sub>''t''</sub> 的任一線性[[泛函]]均會得出[[正態分佈]]。可以寫成''X'' ~ GP(''m'',''K''),即{{le|隨機函數|random function|隨機函數}}''X'' 以高斯過程(GP)方式分佈,且其平均數函數為''m'' 及其[[協方差函數]]為''K''。<ref>{{Cite book | last1 = Rasmussen | first1 = C. E. | chapter = Gaussian Processes in Machine Learning | doi = 10.1007/978-3-540-28650-9_4 | title = Advanced Lectures on Machine Learning | series = Lecture Notes in Computer Science | volume = 3176 | pages = 63–71 | year = 2004 | isbn = 978-3-540-23122-6 | pmid = | pmc = }}</ref>當輸入向量''t''為二維或多維時,高斯過程亦可能被稱為{{le|高斯場|Gaussian random field|高斯場}}。<ref name="prml">{{cite book |last=Bishop |first=C.M. |title= Pattern Recognition and Machine Learning |year=2006 |publisher=[[Springer Science+Business Media|Springer]] |isbn=0-387-31073-8}}</ref>

有些人<ref>{{cite book |last=Simon |first=Barry |title=Functional Integration and Quantum Physics |year=1979 |publisher=Academic Press}}</ref> 假設[[隨機變量]] ''X''<sub>''t''</sub> 平均為0;其可以在[[不失一般性]]的前提下簡化運算,且高斯過程的均方屬性可完全由[[協方差函數]]''K''得出。<ref name="seegerGPML">{{cite journal |last1= Seeger| first1= Matthias |year= 2004 |title= Gaussian Processes for Machine Learning|journal= International Journal of Neural Systems|volume= 14|issue= 2|pages= 69–104 |doi=10.1142/s0129065704001899}}</ref>


==註譯==
{{Reflist}}



{{math-stub}}
{{Stochastic processes}}
{{Stochastic processes}}



2016年11月2日 (三) 08:21的版本

概率论统计学中,高斯过程(英語:Gaussian process)是观测值出现在一个连续域(例如时间或空间)的统计模型。在高斯过程中,连续输入空间中每个点都是与一个正态分布随机变量相关联。此外,这些随机变量的每个有限集合都有一个多元正态分布。高斯过程的分布是所有那些(無限多个)随机变量的联合分布,正因如此,它是连续域(例如时间或空间)的分布。

高斯過程被認為是一種機器學習英语machine learning算法,是以惰性學習英语lazy learning方式,利用點與點之間同質性的度量作為核函數英语Kernel function,以從輸入的訓練數據預測未知點的值。其預測結果不僅包含該點的值,而同時包含不確定性的資料-它的一維高斯分佈(即該點的邊際分佈英语marginal distribution)。[1]

對於某些核函數,可以使用矩陣代數(見克里金法英语kriging條目)來計算預測值。若核函數有代數參數,則通常使用軟體以擬合高斯過程的模型。

由於高斯過程是基於高斯分佈(正態分佈)的概念,故其以卡爾·弗里德里希·高斯為名。可以把高斯過程看成多元正態分佈的無限維廣義延伸。

高斯過程常用於統計建模中,而使用高斯過程的模型可以得到高斯過程的屬性。例如,一隨機過程以高斯過程建模,則各種導出量(包括隨機過程在一定範圍次數內的平均值,及使用小範圍採樣次數及採樣值進行平均值預測的誤差)的分佈即能輕易得出。

定義

高斯過程為一統計學分佈,可定義為Xt, tT,其任一有限的取樣值線性組合均有共同的多元正態分佈。更準確地,取樣函數Xt 的任一線性泛函均會得出正態分佈。可以寫成X ~ GP(m,K),即隨機函數X 以高斯過程(GP)方式分佈,且其平均數函數為m 及其協方差函數K[2]當輸入向量t為二維或多維時,高斯過程亦可能被稱為高斯場英语Gaussian random field[3]

有些人[4] 假設隨機變量 Xt 平均為0;其可以在不失一般性的前提下簡化運算,且高斯過程的均方屬性可完全由協方差函數K得出。[5]


註譯

  1. ^ Platypus Innovation: A Simple Intro to Gaussian Processes (a great data modelling tool). 
  2. ^ Rasmussen, C. E. Gaussian Processes in Machine Learning. Advanced Lectures on Machine Learning. Lecture Notes in Computer Science 3176. 2004: 63–71. ISBN 978-3-540-23122-6. doi:10.1007/978-3-540-28650-9_4. 
  3. ^ Bishop, C.M. Pattern Recognition and Machine Learning. Springer. 2006. ISBN 0-387-31073-8. 
  4. ^ Simon, Barry. Functional Integration and Quantum Physics. Academic Press. 1979. 
  5. ^ Seeger, Matthias. Gaussian Processes for Machine Learning. International Journal of Neural Systems. 2004, 14 (2): 69–104. doi:10.1142/s0129065704001899.