本頁使用了標題或全文手工轉換

資訊

維基百科,自由的百科全書
(已重新導向自 資訊)
前往: 導覽搜尋
各地中文名稱
大陸 信息
台灣 資訊
訊息
採用二進制表示的「Wikipedia」的ASCII代碼。這是計算機資訊編碼時最為常用的數制
「Wikipedia」二進制ASCII代碼的動畫演示。

資訊(英語:Information),是一個高度概括抽象概念,很難用統一的文字對其進行定義[1],這是由於其具體表現形式的多樣性造成的。資訊是一個發展中的動態範疇,它隨人類社會的演變而相應的擴大或收縮,總的來看從過去到現在資訊所涵蓋的範圍是不斷擴大的,可以斷定隨人類社會的發展資訊範疇將進一步擴大。

作為一個嚴謹的科學術語,資訊的定義卻不存在一個統一的觀點,這是由它的極端複雜性決定的。資訊的表現形式數不勝數:聲音圖片溫度體積顏色……資訊的分類也不計其數:電子資訊、財經資訊、天氣資訊、生物資訊……。

熱力學中,資訊是指任何會影響系統的熱力學狀態的事件。

資訊可以減少不確定性。事件的不確定性是以其發生機率來量測,發生機率越高,不確定性越低,事件的不確定性越高,越需要額外的資訊減少其不確定性。位元是典型的資訊單位英語unit of information,但也可以使用像納特之類的單位,例如投擲一個公正的硬幣,其資訊為log2(2/1) = 1 bit,投擲一個公正的硬幣,其資訊為log2(4/1) = 2 bits。

詞源[編輯]

在古希臘文中資訊單詞為μορφήεἶδος,後者是著名哲學家柏拉圖的經常用詞(以及後來的亞里士多德),以表示理想的身份或事物的本質。在英文單詞中則源於拉丁文賓格形式(informationem)的主格(informatio):這個名詞是由動詞反過來又衍生出「informare」(告知)在「to give form to the mind」,「to discipline」,「instruct」,「teach」:「這麼聰明的男人應該去通知他們的國王。」

狹義定義[編輯]

美國數學家資訊理論的奠基人克勞德·艾爾伍德·香農Claude Elwood Shannon)在他的著名論文《通信的數學理論》(1948)中提出計算資訊量的公式,(一個資訊由n個符號所構成,符號k出現的機率為p_k),則有[2]

H = \sum_{k=1}^n p_k \log_2 p_k

這個公式和熱力學的熵的計算方式一樣,故也稱為。從公式可知,當各個符號出現的機率相等,即「不確定性」最高時,資訊熵最大。故資訊可以視為「不確定性」或「選擇的自由度」的度量。

美國數學家控制論的奠基人諾伯特·維納在他的《控制論——動物和機器中的通訊與控制問題》中認為,資訊是「我們在適應外部世界,控制外部世界的過程中同外部世界交換的內容的名稱」。英國學者阿希貝William Ross Ashby)認為,資訊的本性在於事物本身具有變異度。義大利學者朗高在《資訊理論:新的趨勢與未決問題》中認為,資訊是反映事物的形成、關係和差別的東西,它包含於事物的差異之中,而不在事物本身。

另有以下兩種定義:

  • 凡是在一種情況下能減少不確定性的任何事物都叫資訊[3]
  • 資訊是物質存在的一種方式、形態或運動形態,也是事物的一種普遍屬性,一般指數據、消息中所包含的意義,可以使消息中所描述事件中的不定性減少。[4]

哲學定義[編輯]

資訊是反映(映射)事件的內容。事件包括判斷事件、動作事件等對所有運動的描述。對資訊的定義了解將從根本上揭示智能形成的原因。 經典的哲學定義有北京郵電大學鍾義信教授:「資訊是事物運動的狀態及其改變方式」。[5]

2014年,周錨在《資訊理論思維 網際網路時代的生存法則》中提出:[6]

「資訊」人類對事物存在的客觀認知和對主觀思維的具象表述,而客觀世界,我們只能通過「資訊」來反映、描繪、認知、研究;主觀認識或思維,也只有通過「資訊」手段來表述、傳播、交流。


經典的屬加種差定義[編輯]

屬加種差定義是一種嚴格的定義方式,A是滿足C特質的B。這裡A是被定義項(被定義的),B是A的屬,即,這個概念是更一般於A的提前被定義的了,或已經知道的,和C並不代表這一概念,但對所有的陳述來說,A是如何不同於B的所有其他種(即所有別的概念的一般性更小於B)。

例如在「人是兩條腿的無羽毛動物」中:

  • A=「人」
  • B=「兩條腿動物」
  • C=「無羽毛」

這是亞里士多德在他的演講中對學生講的如何進行概念定義的著名例子。它已經是如此的著名,以至於第二天這位學生將一隻剔了羽毛的雞帶到了演講會上。 在此基礎上,Fred Dretske在《知識與資訊流》一書中對資訊定義到:粗略地說,資訊是能夠產生知識的商品,資訊或訊號所攜帶的正是我們需要知道的。

呈現及複雜性[編輯]

認知科學家及應用數學家認為資訊是一個泛及至少和兩個相關實體的概念,目的是在提供量化的意義。假設有任意定義尺寸的物體集合S,以及其子集合R,在本質上,R是一種S的呈現方式,或者說R傳遞了有關S概念性的資訊。Vigo定義R傳遞有關S的資訊量為當將R中的物件從S移除時,S複雜度變化的速度。依照Vigo定義的資訊,模式、不變性、複雜度、呈現方式以及資訊可以整合在同一個數學架構下[7][8]。此架構試圖要克服在表徵及量測主觀的資訊時,香農-維納資訊定義下的限制。

感官輸入[編輯]

資訊常被視為是一種對生物系統的輸入。輸入可以分為兩種:有些輸入是對生物的某個機能很重要(例如食物),或是對系統本身很重要(例如能量)。Dusenbery在《感官生態》(Sensory Ecology)[9]書中稱這些輸入為必然輸入(causal input)。其他的輸入(資訊)重要的原因是因為和必然輸入有關,而且可以預測稍晚時間(也許不同地點)必然輸入是否會出現。有些資訊重要的原因可能只是和另一資訊有關,但最後終究可以連結到必然輸入。在實務上,資訊可能只有微弱的刺激,必需用特定的感測系統來偵測,且經過能量的放大,才能會生物或是系統有用。例如光對植物是必然輸入,但對動物而言卻提供了一些資訊,花朵反射的有色光非常弱,不足以進行光合作用,但蜜蜂的視覺系統可以偵測到,其神經系統用這種資訊來導引蜜蜂找到花,採集花蜜或花粉,這些是營養系統的必然輸入。

造成改變的影響[編輯]

資訊是任意形式,會影響其他模式形成或改變的模式[10][11]。以這個意義來說,不需要一個有意識的心靈來認知模式[來源請求]。以DNA為例,這個由核酸形成的序列,是一個會影響生物形成或改變的模式,即使生物體沒有有意識的心靈也是如此。

系統理論有時會提到此種定義(定義中不需要有意識心靈)的資訊,並且將系統中(因著反饋)而循環的模式稱為資訊。可能說此定義下的資訊是某種潛在可能被感知的事物,雖然不一定是為了此目的創造或是呈現。格雷戈里·貝特森對資訊的定義是「帶來改變的改變」[12]

物理的概念[編輯]

物理學中資訊有明確的定義。在2003年雅各布·貝肯斯坦認為物理學中的一個在成長的趨勢是將物理世界定義為由資訊本身組成(也以此來定義資訊)(參考數碼物理學)。這個例子包括量子糾纏的現象,兩個粒子會互相影響,影響的速度甚至高於光速。資訊即使是以非直接的方式傳播,資訊的傳播也不會比光速快。因此可能在物理上觀測某一個和其他粒子糾纏的粒子,觀測本身就會影響另一個粒子,其至二個粒子除了承載的資訊外,兩者沒有任何其他的連結。

另外一個範例是稱為麥克斯韋妖的思想實驗。在此實驗中呈現了資訊和另一個物理性質的關係,其結論是無法在熵不增加(一般是會產生熱)的情形來破壞資訊,另一個更哲學性的結論是資訊可以和能量互相轉換[來源請求]。因此在邏輯閘的研究中,AND閘發熱量的理論下限比NOT閘的發熱量要低(因為資訊在AND閘中會被破壞,而在NOT閘中只會被轉換)。在量子電腦的理論中物理資訊的概念格外的重要。

科技媒介的資訊[編輯]

估計世界可儲存資訊的量從1986年的2.6EB(經最佳化壓縮)-其資訊量小於每個人有一片730-MBCD-ROM的資訊量,成長為2007年的295 EB[13]-資訊量約等於每個人有61片CD-ROM[14]

2007年時,世界上藉由單向廣播可接受資訊的技術能力,相當於每人每天174份報紙[13]。而藉由雙向電信可交換資訊的技術能力,相當於每人每天6份報紙。

分類[編輯]

資訊依據載體的不同被分為5大類:文字、圖形(圖像)、聲音、動畫、視頻。

相關條目[編輯]

參考資料[編輯]

  1. ^ 鄧宇 等,資訊定義的標準化,醫學資訊,2006, 19(7)
  2. ^ 自然科學概論. 五南圖書出版股份有限公司. 1996: 1– [2014-10-10]. ISBN 978-957-11-1185-8. 
  3. ^ 資訊化的創始人香農和韋弗,1948年,《通信的數學理論》
  4. ^ 中國國家標註GB 489885《情報與文獻工作詞彙基本術語》
  5. ^ 鍾義信,《資訊和科學原理》
  6. ^ 周錨,《資訊理論思維 網際網路時代的生存法則》,中國發展出版社(2014) ISBN 978-7-5177-0174-3
  7. ^ Vigo, R. Representational information: a new general notion and measure of information. Information Sciences, 181 (2011),4847-4859. 2011. 
  8. ^ Vigo, R. (2013).Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information. Information, 4(1), 1-30; doi:10.3390/info4010001
  9. ^ Dusenbery, David B. (1992). Sensory Ecology. W.H. Freeman., New York. ISBN 0-7167-2333-6.
  10. ^ Shannon, Claude E. The Mathematical Theory of Communication. 1949. 
  11. ^ Casagrande, David. Information as verb: Re-conceptualizing information for cognitive and ecological models. Journal of Ecological Anthropology. 1999, 3 (1): 4–13. 
  12. ^ Bateson, Gregory. ^ Form, Substance, and Difference, in Steps to an Ecology of Mind. University of Chicago Press. 1972: 448–466. 
  13. ^ 13.0 13.1 "The World’s Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  14. ^ "video animation on The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010

外部連結[編輯]

Wiktionary-logo-zh.png
維基詞典上的詞義解釋: