本頁使用了標題或全文手工轉換

最近鄰居法

維基百科,自由的百科全書
前往: 導覽搜尋

模式識別領域中,最近鄰居法KNN演算法,又譯K-近鄰演算法)是一種用於分類回歸無母數統計方法。[1]在這兩種情況下,輸入包含特徵空間中的k個最接近的訓練樣本。

  • k-NN分類中,輸出是一個分類族群。一個物件的分類是由其鄰居的「多數表決」確定的,k個最近鄰居(k為正整數,通常較小)中最常見的分類決定了賦予該物件的類別。若k = 1,則該物件的類別直接由最近的一個節點賦予。
  • k-NN回歸中,輸出是該物件的屬性值。該值是其k個最近鄰居的值的平均值。

最近鄰居法採用向量空間模型來分類,概念為相同類別的案例,彼此的相似度高,而可以藉由計算與已知類別案例之相似度,來評估未知類別案例可能的分類。

K-NN是一種基於例項的學習英語instance-based learning,或者是局部近似和將所有計算推遲到分類之後的惰性學習英語lazy learning。k-近鄰演算法是所有的機器學習演算法中最簡單的之一。

無論是分類還是回歸,衡量鄰居的權重都非常有用,使較近鄰居的權重比較遠鄰居的權重大。例如,一種常見的加權方案是給每個鄰居權重賦值為1/ d,其中d是到鄰居的距離。[2]

鄰居都取自一組已經正確分類(在回歸的情況下,指屬性值正確)的物件。雖然沒要求明確的訓練步驟,但這也可以當作是此演算法的一個訓練樣本集。

k-近鄰演算法的缺點是對資料的局部結構非常敏感。本演算法與K-平均演算法(另一流行的機器學習技術)沒有任何關係,請勿與之混淆。

演算法[編輯]

k近鄰演算法例子。測試樣本(綠色圓形)應歸入要麼是第一類的藍色方形或是第二類的紅色三角形。如果k=3(實線圓圈)它被分配給第二類,因為有2個三角形和只有1個正方形在內側圓圈之內。如果k=5(虛線圓圈)它被分配到第一類(3個正方形與2個三角形在外側圓圈之內)。

訓練樣本是多維特徵空間向量,其中每個訓練樣本帶有一個類別標籤。演算法的訓練階段只包含儲存的特徵向量和訓練樣本的標籤。

在分類階段,k是一個用戶定義的常數。一個沒有類別標籤的向量(查詢或測試點)將被歸類為最接近該點的k個樣本點中最頻繁使用的一類。

一般情況下,將歐氏距離作為距離度量,但是這是只適用於連續變數。在文字分類這種離散變數情況下,另一個度量——重疊度量(或海明距離)可以用來作為度量。例如對於基因表達微陣列資料,k-NN也與Pearson和Spearman相關係數結合起來使用。[3]通常情況下,如果運用一些特殊的演算法來計算度量的話,k近鄰分類精度可顯著提高,如運用大間隔最近鄰居或者鄰里成分分析法。

「多數表決」分類會在類別分布偏斜時出現缺陷。也就是說,出現頻率較多的樣本將會主導測試點的預測結果,因為他們比較大可能出現在測試點的K鄰域而測試點的屬性又是通過k鄰域內的樣本計算出來的。[4]解決這個缺點的方法之一是在進行分類時將樣本到k個近鄰點的距離考慮進去。k近鄰點中每一個的分類(對於回歸問題來說,是數值)都乘以與測試點之間距離的成反比的權重。另一種克服偏斜的方式是通過資料表示形式的抽象。例如,在自組織對映(SOM)中,每個節點是相似的點的一個集群的代表(中心),而與它們在原始訓練資料的密度無關。K-NN可以應用到SOM中。

參數選擇[編輯]

如何選擇一個最佳的K值取決於資料。一般情況下,在分類時較大的K值能夠減小噪聲的影響,[5] 但會使類別之間的界限變得模糊。一個較好的K值能通過各種啟發式技術(見超參數最佳化英語Hyperparameter optimization)來取得。

噪聲和非相關性特徵的存在,或特徵尺度與它們的重要性不一致會使K近鄰演算法的準確性嚴重降低。對於選取和縮放特徵來改善分類已經作了很多研究。一個普遍的做法是利用進化演算法最佳化功能擴充功能[6],還有一種較普遍的方法是利用訓練樣本的互資訊進行選擇特徵。

在二元(兩類)分類問題中,選取k為奇數有助於避免兩個分類平票的情形。在此問題下,選取最佳經驗k值的方法是自助法[7]

屬性[編輯]

原始樸素的演算法通過計算測試點到儲存樣本點的距離是比較容易實現的,但它屬於計算密集型的,特別是當訓練樣本集變大時,計算量也會跟著增大。多年來,許多用來減少不必要距離評價的近鄰搜尋演算法已經被提出來。使用一種合適的近鄰搜尋演算法能使K近鄰演算法的計算變得簡單許多。

近鄰演算法具有較強的一致性結果。隨著資料趨於無限,演算法保證錯誤率不會超過貝葉斯演算法錯誤率的兩倍[8]。對於一些K值,K近鄰保證錯誤率不會超過貝葉斯的。

決策邊界[編輯]

近鄰演算法能用一種有效的方式隱含的計算決策邊界英語Decision boundary。另外,它也可以顯式的計算決策邊界,以及有效率的這樣做計算,使得計算複雜度是邊界複雜度的函式。[9]

連續變數估計[編輯]

K近鄰演算法也適用於連續變數估計,比如適用反距離加權平均多個K近鄰點確定測試點的值。該演算法的功能有:

  1. 從目標區域抽樣計算歐式或馬氏距離;
  2. 在交叉驗證後的RMSE基礎上選擇啟發式最優的K鄰域;
  3. 計算多元k-最近鄰居的距離倒數加權平均。

發展[編輯]

然而k最近鄰居法因為計算量相當的大,所以相當的耗時,Ko與Seo提出一演算法TCFPtext categorization using feature projection),嘗試利用特徵投影法英語feature projection來降低與分類無關的特徵對於系統的影響,並藉此提昇系統效能,其實實驗結果顯示其分類效果與k最近鄰居法相近,但其運算所需時間僅需k最近鄰居法運算時間的五十分之一。

除了針對檔案分類的效率,尚有研究針對如何促進k最近鄰居法在檔案分類方面的效果,如Han等人於2002年嘗試利用貪心法,針對檔案分類實做可調整權重的k最近鄰居法WAkNNweighted adjusted k nearest neighbor),以促進分類效果;而Li等人於2004年提出由於不同分類的檔案本身有數量上有差異,因此也應該依照訓練集合中各種分類的檔案數量,選取不同數目的最近鄰居,來參與分類。

參見[編輯]

參考文獻[編輯]

  1. ^ Altman, N. S. An introduction to kernel and nearest-neighbor nonparametric regression. The American Statistician. 1992, 46 (3): 175–185. doi:10.1080/00031305.1992.10475879. 
  2. ^ 這個方案是一個線性插值的推廣。
  3. ^ Jaskowiak, P. A.; Campello, R. J. G. B. Comparing Correlation Coefficients as Dissimilarity Measures for Cancer Classification in Gene Expression Data. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.208.993. Brazilian Symposium on Bioinformatics (BSB 2011): 1–8. [16 October 2014].  外部連結存在於|website= (幫助)
  4. ^ D. Coomans; D.L. Massart. Alternative k-nearest neighbour rules in supervised pattern recognition : Part 1. k-Nearest neighbour classification by using alternative voting rules. Analytica Chimica Acta. 1982, 136: 15–27. doi:10.1016/S0003-2670 (01)95359-0 請檢查|doi=值 (幫助). 
  5. ^ Everitt, B. S., Landau, S., Leese, M. and Stahl, D.(2011)Miscellaneous Clustering Methods, in Cluster Analysis, 5th Edition, John Wiley & Sons, Ltd, Chichester, UK.
  6. ^ Nigsch F, Bender A, van Buuren B, Tissen J, Nigsch E, Mitchell JB (2006). "Melting point prediction employing k-nearest neighbor algorithms and genetic parameter optimization". Journal of Chemical Information and Modeling 46 (6): 2412–2422. doi:10.1021/ci060149f. PMID 17125183.
  7. ^ Hall P, Park BU, Samworth RJ. Choice of neighbor order in nearest-neighbor classification. Annals of Statistics. 2008, 36 (5): 2135–2152. doi:10.1214/07-AOS537. 
  8. ^ Cover TM, Hart PE (1967). "Nearest neighbor pattern classification". IEEE Transactions on Information Theory 13 (1): 21–27. doi:10.1109/TIT.1967.1053964.
  9. ^ Bremner D, Demaine E, Erickson J, Iacono J, Langerman S, Morin P, Toussaint G (2005). "Output-sensitive algorithms for computing nearest-neighbor decision boundaries". Discrete and Computational Geometry 33 (4): 593–604. doi:10.1007/s00454-004-1152-0
  10. ^ __E. H. Han, G. Karypis and V. Kumar, Text categorization using weight adjusted k-Nearest Neighbor classification, Pacific-Asia Conference on Knowledge Discovery and Data Mining, pp. 53–65, 2001.
  11. Y. J. Ko and Y. J. Seo, Text categorization using feature projections, Proceedings of the Nineteenth international conference on Computational linguistics, Volume 1, pp. 1–7, 2002.
  12. B. L. Li, Q. Lu and S. W. Yu, An adaptive k-nearest neighbor text categorization strategy, ACM Transactions on Asian Language Information Processing,Volume 3 , Issue 4, pp. 215 –226, 2004.

拓展閱讀[編輯]