跳至內容

高斯過程

維基百科,自由的百科全書

概率論統計學中,高斯過程(英語:Gaussian process)是觀測值出現在一個連續域(例如時間或空間)的隨機過程。在高斯過程中,連續輸入空間中每個點都是與一個常態分布隨機變量相關聯。此外,這些隨機變量的每個有限集合都有一個多元常態分布,換句話說他們的任意有限線性組合是一個常態分布。高斯過程的分布是所有那些(無限多個)隨機變量的聯合分布,正因如此,它是連續域(例如時間或空間)上函數的分布。

高斯過程被認為是一種機器學習算法,是以惰性學習英語lazy learning方式,利用點與點之間同質性的度量作為核函數英語Kernel function,以從輸入的訓練數據預測未知點的值。其預測結果不僅包含該點的值,而同時包含不確定性的資料-它的一維高斯分佈(即該點的邊際分佈)。[1][2]

對於某些核函數,可以使用矩陣代數(見克里金法英語kriging條目)來計算預測值。若核函數有代數參數,則通常使用軟體以擬合高斯過程的模型。

由於高斯過程是基於高斯分佈(正態分佈)的概念,故其以卡爾·弗里德里希·高斯為名。可以把高斯過程看成多元正態分佈的無限維廣義延伸。

高斯過程常用於統計建模中,而使用高斯過程的模型可以得到高斯過程的屬性。舉例來說,如果把一隨機過程用高斯過程建模,我們可以顯示求出各種導出量的分布,這些導出量可以是例如隨機過程在一定範圍次數內的平均值,及使用小範圍採樣次數及採樣值進行平均值預測的誤差。

定義

[編輯]

統計學分佈定義為{Xt, t∈T}是一個高斯過程,若且唯若對下標集合T的任意有限子集t1,...,tk

是一個多元常態分布,這等同於說的任一線性組合是一單變量正態分佈。更準確地,取樣函數Xt 的任一線性泛函均會得出正態分佈。可以寫成X ~ GP(m,K),即隨機函數X 以高斯過程(GP)方式分佈,且其平均數函數為m 及其協方差函數K[3]當輸入向量t為二維或多維時,高斯過程亦可能被稱為高斯自由場高斯場英語Gaussian random field)。[4]

有些人[5] 假設隨機變量 Xt 平均為0;其可以在不失一般性的前提下簡化運算,且高斯過程的均方屬性可完全由協方差函數K得出。[6]

協方差函數

[編輯]

高斯過程的關鍵事實是它們可以完全由它們的二階統計量來定義.[4]因此,如果高斯過程被假定為具有平均值零, defining 協方差函數完全定義了過程的行為。重要的是,這個函數的非負定性使得它的譜分解使用了 K-L轉換.

可以通過協方差函數定義的基本方面是過程的平穩過程, 各向同性, 光滑函數週期函數[7][8]

平穩過程指的是過程的任何兩點x和x'的分離行為。如果過程是靜止的,取決於它們的分離x-x',而如果非平穩則取決於x和x'的實際位置。例如,一個特例 Ornstein–Uhlenbeck 過程, 一個 布朗運動 過程,是固定的。

如果過程僅依賴於 ,x和x'之間的歐幾里德距離(不是方向),那麼這個過程被認為是各向同性的。同時存在靜止和各向同性的過程被認為是 同質與異質;[9]在實踐中,這些屬性反映了在給定觀察者位置的過程的行為中的差異(或者更確切地說,缺乏這些差異)。

最終高斯過程翻譯為功能先驗,這些先驗的平滑性可以由協方差函數引起。如果我們預期對於「接近」的輸入點x和x',其相應的輸出點y和y'也是「接近」,則存在連續性的假設。如果我們希望允許顯著的位移,那麼我們可以選擇一個更粗糙的協方差函數。行為的極端例子是Ornstein-Uhlenbeck協方差函數和前者不可微分和後者無限可微的平方指數。 週期性是指在過程的行為中引發週期性模式。形式上,這是通過將輸入x映射到二維向量 來實現的。

常見的協方差函數

[編輯]
The effect of choosing different kernels on the prior function distribution of the Gaussian process. Left is a squared exponential kernel. Middle is Brownian. Right is quadratic.

一些常見的協方差函數:[8]

  • 常值:
  • 線性:
  • 高斯噪聲:
  • 平方指數:
  • Ornstein–Uhlenbeck :
  • Matérn:
  • 定期:
  • 有理二次方:

相關

[編輯]

註譯

[編輯]
  1. ^ Platypus Innovation: A Simple Intro to Gaussian Processes (a great data modelling tool). [2016-11-02]. (原始內容存檔於2018-05-01). 
  2. ^ Chen, Zexun; Wang, Bo; Gorban, Alexander N. Multivariate Gaussian and Student-t process regression for multi-output prediction. Neural Computing and Applications. 2019-12-31. ISSN 0941-0643. doi:10.1007/s00521-019-04687-8 (英語). 
  3. ^ Rasmussen, C. E. Gaussian Processes in Machine Learning. Advanced Lectures on Machine Learning. Lecture Notes in Computer Science 3176. 2004: 63–71. ISBN 978-3-540-23122-6. doi:10.1007/978-3-540-28650-9_4. 
  4. ^ 4.0 4.1 Bishop, C.M. Pattern Recognition and Machine Learning. Springer. 2006. ISBN 0-387-31073-8. 
  5. ^ Simon, Barry. Functional Integration and Quantum Physics. Academic Press. 1979. 
  6. ^ Seeger, Matthias. Gaussian Processes for Machine Learning. International Journal of Neural Systems. 2004, 14 (2): 69–104. doi:10.1142/s0129065704001899. 
  7. ^ Barber, David. Bayesian Reasoning and Machine Learning. Cambridge University Press. 2012 [2018-06-26]. ISBN 978-0-521-51814-7. (原始內容存檔於2020-11-11). 
  8. ^ 8.0 8.1 Rasmussen, C.E.; Williams, C.K.I. Gaussian Processes for Machine Learning. MIT Press. 2006 [2018-06-26]. ISBN 0-262-18253-X. (原始內容存檔於2021-05-22). 
  9. ^ Grimmett, Geoffrey; David Stirzaker. Probability and Random Processes. Oxford University Press. 2001. ISBN 0198572220.