跳至內容

特徵向量中心性

維基百科,自由的百科全書

圖論中,特徵向量中心性(eigenvector centrality)是測量節點網絡影響的一種方式。針對連接數相同的節點,相鄰節點分數更高的節點會比相鄰節點分數更低的節點分數高,依據此原則給所有節點分配對應的分數。特徵向量得分較高意味着該節點與許多自身得分較高的節點相連接。[1][2]

谷歌PageRankKatz中心性是特徵向量中心性的變體。[3]

利用鄰接矩陣求特徵向量中心性

[編輯]

給定一個節點集合為的圖,定義其鄰接矩陣,當相連時,否則。則節點中心性的分數其求解公式為:

其中是節點的相鄰節點集合,是一個常數。經過一系列變形,該公式可變換為如下所示的特徵向量方程:

通常來說,有許多不同的特徵值能使得一個特徵方程有非零解存在。然而,考慮到特徵向量中的所有項均為非負值,根據佩倫-弗羅貝尼烏斯定理,只有特徵值最大時才能測量出想要的中心性。然後通過計算網絡中的節點 其特徵向量的相關分量便能得出其對應的中心性的分數。特徵向量的定義只有一個公因子,因此各節點中心性的比例可以很好確定。為了確定一個絕對分數,必須將其中一個特徵值標準化,例如所有節點評分之和為1或者節點數 n冪次迭代是許多特徵值算法中的一種,該算法可以用來尋找這種主導特徵向量。此外,以上方法可以推廣,使得矩陣A中每個元素可以是表示連接強度的實數,例如隨機矩陣

應用

[編輯]

神經科學中,研究發現一個模型神經網絡其神經元的特徵向量中心性與神經元的相對激發率有關。[4]

特徵向量中心性最早在埃德蒙·蘭道(Edmund Landau)於1895年發表的一篇關於國際象棋比賽計分的論文中使用過。[5][6]

參見

[編輯]

參考文獻

[編輯]
  1. ^ M. E. J. Newman. The mathematics of networks (PDF). [2006-11-09]. (原始內容存檔 (PDF)於2021-01-22). 
  2. ^ Christian F. A. Negre, Uriel N. Morzan, Heidi P. Hendrickson, Rhitankar Pal, George P. Lisi, J. Patrick Loria, Ivan Rivalta, Junming Ho, Victor S. Batista. Eigenvector centrality for characterization of protein allosteric pathways. Proceedings of the National Academy of Sciences. 2018, 115: E12201––E12208 [2019-05-17]. doi:10.1073/pnas.1810452115. (原始內容存檔於2020-09-08). 
  3. ^ David Austin. How Google Finds Your Needle in the Web's Haystack. AMS. [2019-05-17]. (原始內容存檔於2018-01-11). 
  4. ^ Fletcher, Jack McKay and Wennekers, Thomas. From Structure to Activity: Using Centrality Measures to Predict Neuronal Activity. International Journal of Neural Systems. 2017, 0: 1750013 [2019-05-17]. doi:10.1142/S0129065717500137. (原始內容存檔於2019-08-28). 
  5. ^ Endmund Landau. Zur relativen Wertbemessung der Turnierresultate. Deutsches Wochenschach. 1895: 366–369 [2019-05-17]. (原始內容存檔於2019-04-17). 
  6. ^ Holme, Peter. Firsts in network science. 15 April 2019 [17 April 2019]. (原始內容存檔於2019-04-16).