維數災難

維基百科,自由的百科全書
跳至導覽 跳至搜尋

維數災難英語:curse of dimensionality,又名維度的詛咒)是一個最早由理察·貝爾曼(Richard E. Bellman)在考慮優化問題時首次提出來的術語[1][2],用來描述當(數學)空間維度增加時,分析和組織高維空間(通常有成百上千維),因體積指數增加而遇到各種問題場景。這樣的難題在低維空間中不會遇到,如物理空間通常只用三維來建模。

舉例來說,100個平均分布的點能把一個單位區間以每個點距離不超過0.01採樣;而當維度增加到10後,如果以相鄰點距離不超過0.01小方格採樣一單位超正方體,則需要1020 個採樣點:所以,這個10維的超正方體也可以說是比單位區間大1018倍。(這個是理察·貝爾曼所舉的例子)

在很多領域中,如採樣組合數學機器學習數據挖掘都有提及到這個名字的現象。這些問題的共同特色是當維數提高時,空間的體積提高太快,因而可用數據變得很稀疏。稀疏性對於任何要求有統計學意義的方法而言都是一個問題,為了獲得在統計學上正確並且有可靠的結果,用來支撐這一結果所需要的數據量通常隨著維數的提高而呈指數級增長。而且,在組織和搜索數據時也有賴於檢測對象區域,這些區域中的對象通過相似度屬性而形成分組。然而在高維空間中,所有的數據都很稀疏,從很多角度看都不相似,因而平常使用的數據組織策略變得極其低效。

「維數災難」通常是用來作為不要處理高維數據的無力藉口。然而,學術界一直都對其有興趣,而且在繼續研究。另一方面,也由於本徵維度英語intrinsic dimension的存在,其概念是指任意低維數據空間可簡單地通過增加空餘(如複製)或隨機維將其轉換至更高維空間中,相反地,許多高維空間中的數據集也可削減至低維空間數據,而不必丟失重要信息。這一點也通過眾多降維方法的有效性反映出來,如應用廣泛的主成分分析方法。針對距離函數和最近鄰搜索,當前的研究也表明除非其中存在太多不相關的維度,帶有維數災難特色的數據集依然可以處理,因為相關維度實際上可使得許多問題(如聚類分析)變得更加容易。另外,一些如馬爾科夫蒙特卡洛或共享最近鄰搜索方法[3]經常在其他方法因為維數過高而處理棘手的數據集上表現得很好。

組合學[編輯]

在一些問題中,每個變量都可取一系列離散值中的一個,或者可能值的範圍被劃分為有限個可能性。把這些變量放在一起,則必須考慮很多種值的組合方式,這後果就是常說的組合爆炸英語Combinatorial explosion。即使在最簡單的二元變量例子中,可能產生的組合總數就已經是在維數上呈現指數級的。一般而言,每個額外的維度都需要成倍地增加嘗試所有組合方式的影響。

採樣[編輯]

當在數學空間上額外增加一個維度時,其體積會呈指數級的增長。如,點間距離不超過10-2=0.01,102=100個均勻間距的樣本點足夠採樣到一個單位區間(「一個維度的立方體」);一個10維單元超立方體的等價採樣,其相鄰兩點間的距離為10-2=0.01則需要1020個樣本點。一般而言,點距為10-n的10維超立方體所需要的樣本點數量,是1維超立方體這樣的單元區間的10n(10-1)倍。在上面的n=2的例子中:當樣本距離為0.01時,10維超立方體所需要的樣本點數量會比單元區間多1018倍。這一影響就是上面所述組合學問題中的組合結果,距離函數問題將在下面介紹。

優化[編輯]

當用數值逆向歸納法英語backward induction解決動態優化問題時,目標函數針對每個可能的組合都必須計算一遍,當狀態變量的維度很大時,這是極其困難的。

機器學習[編輯]

機器學習問題中,需要在高維特徵空間(每個特徵都能夠取一系列可能值)的有限數據樣本中學習一種「自然狀態」(可能是無窮分布),要求有相當數量的訓練數據含有一些樣本組合。給定固定數量的訓練樣本,其預測能力隨著維度的增加而減小,這就是所謂的Hughes影響[4]Hughes現象(以Gordon F. Hughes命名)。[5][6]

貝葉斯統計[編輯]

貝葉斯統計中維數災難通常是一個難點,因為其後驗分布英語posterior distributions通常都包含著許多參數。

然而,這一問題在基於模擬的貝葉斯推理(尤其是適應於很多實踐問題的馬爾科夫蒙特卡洛方法)出現後得到極大地克服,當然,基於模擬的方法收斂很慢,因此這也並不是解決高維問題的靈丹妙藥。

距離函數[編輯]

當一個度量,如歐幾里德距離使用很多坐標來定義時,不同的樣本對之間的距離已經基本上沒有差別。

一種用來描述高維歐幾里德空間的巨型性的方法是將超球體中半徑和維數的比例,和超立方體中邊長和等值維數的比例相比較。 這樣一個球體的體積計算如下:

立方體的體積計算如下:

隨著空間維度的增加,相對於超立方體的體積來說,超球體的體積就變得微不足道了。這一點可以從當趨於無窮時比較前面的比例清楚地看出:

。 因此,在某種意義上,幾乎所有的高維空間都遠離其中心,或者從另一個角度來看,高維單元空間可以說是幾乎完全由超立方體的「邊角」所組成的,沒有「中部」,這對於理解卡方分布是很重要的直覺理解。 給定一個單一分布,由於其最小值和最大值與最小值相比收斂於0,因此,其最小值和最大值的距離變得不可辨別。 .

這通常被引證為距離函數在高維環境下失去其意義的例子。

最近鄰搜索[編輯]

最近鄰搜索在高維空間中影響很大,因為其不可能使用其中一個坐標上的距離下界來快速地去掉一個候選項,因為該距離計算需要基於所有維度。[7][8]

然而,最近的研究表明僅僅一些數量的維度不一定會必然導致該問題,[3]因為相關的附加維度也能增加其相反項。另外,結果排序的方法仍然有助於辨別近處和遠處的鄰居。然而,不相關(「噪聲」)維度也如期望一樣會減少相反項,在時間序列分析中,數據一般都是高維的,只要信噪比足夠高的話,其距離函數也同樣能夠可靠地工作。[9]

k近鄰分類[編輯]

高維度在距離函數的另一個影響例子就是k近鄰(k-NN),該圖使用一些距離函數從數據集英語Data set構造。當維度增加時,k-NN有向圖入度分頁將會向右傾斜,從而導致中心的出現,很多的數據實例出現在其他許多實例(比預期多得多)的k-NN列表中。這一現象對很多技術,如分類(包括最近鄰居法半監督學習英語semi-supervised learning,和聚類分析都有很大的影響。[10],同時它也對信息檢索問題有影響。[11]

延伸閱讀[編輯]

參考資料[編輯]

  1. ^ Richard Ernest Bellman; Rand Corporation. Dynamic programming. Princeton University Press. 1957. ISBN 978-0-691-07951-6. 
    Republished: Richard Ernest Bellman. Dynamic Programming. Courier Dover Publications. 2003. ISBN 978-0-486-42809-3. 
  2. ^ Richard Ernest Bellman. Adaptive control processes: a guided tour. Princeton University Press. 1961. 
  3. ^ 3.0 3.1 Michael E. Houle, Hans-Peter Kriegel, Peer Kröger, Erich Schubert, Arthur Zimek. Can Shared-Neighbor Distances Defeat the Curse of Dimensionality?. Springer, Berlin, Heidelberg: 482–500. 2010-06-30 [2018-04-02]. ISBN 9783642138171. doi:10.1007/978-3-642-13818-8_34 (英語). 
  4. ^ Thomas Oommen, Debasmita Misra, Navin K. C. Twarakavi, Anupma Prakash, Bhaskar Sahoo, Sukumar Bandopadhyay. An Objective Analysis of Support Vector Machine Based Classification for Remote Sensing. Mathematical Geosciences. 2008-05-01, 40 (4): 409–424 [2018-04-02]. ISSN 1874-8961. doi:10.1007/s11004-008-9156-6 (英語). 
  5. ^ Hughes, G.F., 1968. "On the mean accuracy of statistical pattern recognizers", IEEE Transactions on Information Theory, IT-14:55-63.
  6. ^ Not to be confused with the unrelated, but similarly named, Hughes effect in electromagnetism (named after Declan C. Hughes[永久失效連結]) which refers to an asymmetry in the hysteresis curves of laminated cores made of certain magnetic materials, such as permalloy or mu-metal, in alternating magnetic fields.
  7. ^ R. B. Marimont and M. B. Shapiro, "Nearest Neighbour Searches and the Curse of Dimensionality", Journal of the Institute of Mathematics and its Applications, 24, 1979, 59-70.
  8. ^ E. Chavez et al., "Searching in Metric Spaces", ACM Computing Surveys, 33, 2001, 273-321.
  9. ^ Thomas Bernecker, Michael E. Houle, Hans-Peter Kriegel, Peer Kröger, Matthias Renz, Erich Schubert, Arthur Zimek. Quality of Similarity Rankings in Time Series. Springer, Berlin, Heidelberg: 422–440. 2011-08-24 [2018-04-02]. ISBN 9783642229213. doi:10.1007/978-3-642-22922-0_25 (英語). 
  10. ^ Radovanovi?, Milo?; Nanopoulos, Alexandros; Ivanovi?, Mirjana. Hubs in space: Popular nearest neighbors in high-dimensional data (PDF). Journal of Machine Learning Research. 2010, 11: 2487–2531 
  11. ^ Milos Radovanović, Alexandros Nanopoulos, Mirjana Ivanović. On the existence of obstinate results in vector space models. ACM: 186–193. 2010-07-19 [2018-04-02]. ISBN 9781450301534. doi:10.1145/1835449.1835482. 
  • Bellman, R.E. 1957. Dynamic Programming. Princeton University Press, Princeton, NJ.
  • Bellman, R.E. 1961. Adaptive Control Processes. Princeton University Press, Princeton, NJ.
  • Powell, Warren B. 2007. Approximate Dynamic Programming: Solving the Curses of Dimensionality. Wiley, ISBN 0470171553.