強人工智慧

维基百科,自由的百科全书
跳转至: 导航搜索

強人工智慧Strong AI或者 Artificial General Intelligence)是具備與人類同等智慧、或超越人類的人工智慧,能表現正常人類所具有的所有智能行為。[1]

概述[编辑]

強人工智慧是人工智慧研究的主要目標之一,同時也是科幻小說未來學家所討論的主要議題。強人工智慧也指通用人工智能(artificial general intelligence,AGI),或具備執行一般智慧行為的能力。[2]強人工智慧通常把人工智慧和意識、感性、知識和自覺等人類的特徵互相連結。

相對的,弱人工智慧(applied AI,narrow AI,weak AI[3])只處理特定的問題[4]弱人工智慧不需要具有人類完整的認知能力,甚至是完全不具有人類所擁有的感官認知能力。

因而,這樣的具備意識的強人工智慧是否存在?目前現在模擬出簡單的一個生物頭已經不是不可能的事,一如化學技術累積發展下,現在許多研發藥品已經使用計算機模型來推演藥物效果,以減少受試動物的痛苦等。從前在使用電腦語言的時代,原先電腦被認為是不可能具備自我解決能力的,電腦只是看起來聰明,實質上還是按照設計好的規則行事,並不能應付突如其來的狀況,仍舊會犯下錯誤,而近年來從電腦在摩爾定律神經科學研究的協助下,透過在電腦上對生物神經元系統複雜的電位衝動模擬上取得了明顯的突破,使人工智慧越過發展中的坎——處理機制,因為生物的獨特是在於刺激與反應下會強化其回饋作用,這類能夠透過試錯學習經驗並總結,以回應各種刺激的系統(例如玩多次網球遊戲便能從生疏至熟巧),還能從每種回饋中又觸發其他迴路來升級改進思考結構,做出更複雜的精細反應(例如在對話中選擇說謊與其後果等),這樣的仿生領域已經得到長足的進步,使人腦與AI的區別逐漸變得模糊;但是,在機器是否存在有自主「思想」上的議題,將還會一直是人們爭辯的對象,特別是在智能理性與心理感性部分要如何區別、統合,更需要進一步引導其具有人性,來為人類提供最佳解,目前這些方法都還沒有探索出來。在一些能夠自動推理出最佳解的工具已經出現,如Google旗下的深思公司(DeepMind)在此領域進展最多,他們將其類人腦神經程式稱「人工通用智慧技術」,而「通用」一詞就代表者這是一個可以透過自主「進化發展」的通用智慧。[5]

強人工智能(定義見上文)不應該和约翰·罗杰斯·希尔勒(John Searle)的強人工智能假說混淆。強人工智能是指一台計算機可以顯示的智能量,而強人工智能假說聲稱一台電腦作為一個人的智能行为,必須也必然有一個心靈意識

标准[编辑]

人们提出过很多人工智能的定义(例如能够通过图灵测试),但是没有一个定义能够得到所有人的认同[6] 然而,人工智能的研究者们普遍同意,以下特质是一个智能所必须要拥有的:[7]

还有一些重要的能力,包括机器知觉(例如计算机视觉),以及在智能行为的世界中行动的能力(例如机器人移动自身和其他物体的能力)。[8] 它可能包括探知与回避危险的能力。[9] 许多研究智能的交叉领域(例如认知科学机器智能决策)试图强调一些额外的特征,例如想象力(不依靠预设而建构精神影像与概念的能力)[10] 以及自主性[11] 基于计算机的系统中的确已经存在许多这样的能力,例如计算创造性英语computational creativity自动推理决策支持系统机器人进化计算智能代理,然而并未达到人类的水平。

检验强人工智能的操作性手段[编辑]

一个强人工智能需要通过什么样的测试标准,科学家们有很多不同的想法,他们之中包括阿兰·图灵本·格策尔英语Ben Goertzel尼尔斯·尼尔森英语Nils John Nilsson,他们提出的测试包括:

1. 图灵测试(图灵

参见 图灵测试

2. 咖啡测试 (格策尔)

将一部机器带到一个普通的美国家庭中,让它泡好一杯咖啡。它需要找到咖啡机、找到咖啡和水、找到杯子,然后按正确的键以冲泡咖啡。

3. 机器人学生测试 (格策尔)

让一个机器去注册一所大学,参加和人类学生同样的考试,然后通过并获得学位。

4. 雇员测试 (尼尔森)

让机器处在一个经济上重要的职位,需要它能够和同样职位的人类做得同样好或者更好。

这些测试检测了一系列必要的特质,包括推理和学习能力。[12]

强人工智能需要解决的问题[编辑]

人们将对于计算机来说最困难的问题,非正式地称为“人工智能完备”(AI-complete)或者“人工智能困难”(AI-hard)的,以此说明解决了这些计算性问题就相当于解决了人工智能的核心问题——让计算机和人类或者强人工智能一样聪明。[13] 将一个问题称为“人工智能完备的”,意味着它不能被一个简单的特定算法解决。

人们假定人工智能完备的问题包括计算机视觉自然语言理解,以及处理真实世界中的意外情况。[14]目前为止,人工智能完备的问题仍然不能单靠现代计算机技术解决,而是需要人类计算英语human computation。这一点在某些方面很有用,例如通过验证码来判别人类和机器,以及在计算机安全方面用于阻止暴力破解法[15][16]

人工智能研究的主流[编辑]

强人工智能研究的主流历史[编辑]

现代人工智能研究开始于1950年代中期。[17] 最早的一批人工智能研究者相信强人工智能不仅是可能的,而且将在几十年内出现。人工智能先驱司马贺在1965年写道:“在20年之内,机器就能够做到一个人能做到的任何事。”[18] 启发这一预言的是斯坦利·库布里克亚瑟·查理斯·克拉克创作的角色,HAL 9000。当时的人工智能研究者确信,能够在2001年制造出这样的机器。值得一提的是,人工智能先驱马文·闵斯基,在创作HAL 9000的工作中, [19] 他担任了尽量将其制作得与当时主流研究界预言一致的项目顾问;根据Crevier所引用他在1967年所说的话:“在一代人之内...制造‘人工智能’的问题就将被基本解决,”,[20]

然而,到了1970年代早期,研究者们意识到他们远远低估了其中的困难。资助AI项目的机构开始对强人工智能产生怀疑,向研究者们施压要求他们转向更有用的技术,所谓的“应用AI”。[21] 在1980年代初,日本的第五代电脑开始重新对强人工智能恢复兴趣,制定的十年计划中包括一些强人工智能的目标,比如“进行日常对话”。[22] 同时,专家系统的成功和它一起促成了工业界和政府的资金重新开始注入这个领域。[23] 然而,人工智能的市场在1980年代晚期发生剧烈崩塌,而第五代计算机的目标从未实现。[24] 再一次,人工智能研究者们对于强人工智能即将到来的预言在20年之内被证明超出了他们的能力。到了1990年代,人工智能研究者背上了无法实现自己承诺的名声,他们拒绝再作出任何预言。[25] 并且避免提到任何“人类水平”的人工智能,以免被贴上“白日梦”的标签。[26]

今日的人工智能研究主流[编辑]

在1990年代和21世纪初,主流的人工智能在商业成果和学术地位上已经达到了一个新高度,依靠的是专注于细分的专门问题的解决。他们可以提供许多方案和商业应用,例如人工神经网络机器视觉以及数据挖掘[27] 这些“应用人工智能”今天已经在工业技术和研究中得到广泛和深入应用,在学术和产业方面都得到了许多资助。

大多数主流的人工智能研究者希望,能够通过将解决局部问题的方法组合起来实现强人工智能,例如将智能体架构英语agent architecture认知架构英语cognitive architecture或者包容式架构英语subsumption architecture整合起来。汉斯·莫拉维克在1988年写道

"我相信,有一天人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇,从而获得真实世界中的能力,以及对于推理程序来说极其困难的常识知识库。这两种方向结合在一起的时刻,会成为了产生真正智能机器的所谓“金钉子”。"[28]

然而,在人工智能研究者之间也存在一些争论,甚至涉及这个领域的哲学基础;例如,普林斯顿大学的S.Harnad在1990年关于符号基础假设的论文中这样写道

"人们期待,模型认知的“自上而下的”(符号的)研究会在某个点上遇到“自下而上”(感觉的)研究。但是如果这篇文章的基础是正确的,那么这个希望不会实现,只有一个可行的路线从感觉到符号,就是自下而上。一个独立的符号层面,类似计算机软件从不需要这样的路径来到达(反之亦然)——我们也不清楚为何要达到这样的层面,因为这个过程反而将其从自身的意义中拔出(仅仅是将我们化简为何计算机程序等价的东西)。"[29]


分类[编辑]

强人工智能可以有两类:

  • 类人的人工智能,即机器的思考和推理就像人的思维一样。
  • 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。

理论[编辑]

“强人工智能”引发起一连串哲学争论,例如如果一台机器能完全理解语言并回答问题的机器是不是有思维。哲学家希尔勒认为不可能。

关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了著名的中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

也有哲学家持不同的观点。丹尼爾·丹尼特(Daniel C. Dennett)在其著作《意识的阐释》(Consciousness Explained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。

參見[编辑]

參考資料[编辑]

  1. ^ Kurzweil 2005,p.260) or see Advanced Human Intelligence where he defines strong AI as "machine intelligence with the full range of human intelligence."
  2. ^ Newell & Simon 1976. This the term they use for "human-level" intelligence in the physical symbol system hypothesis.
  3. ^ The Open University on Strong and Weak AI
  4. ^ Encyclopædia Britannica Strong AI, applied AI, and cognitive simulation or Jack Copeland What is artificial intelligence? on AlanTuring.net
  5. ^ http://www.inside.com.tw/2016/02/21/the-superhero-of-artificial-intelligence-can-this-genius-keep-it-in-check 人工智慧有多恐怖?聽聽「天才」Demis Hassabis 怎麼說!
  6. ^ AI founder John McCarthy writes: "we cannot yet characterize in general what kinds of computational procedures we want to call intelligent." McCarthy, John. Basic Questions. Stanford University. 2007.  (For a discussion of some definitions of intelligence used by artificial intelligence researchers, see philosophy of artificial intelligence.)
  7. ^ This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole,Mackworth & Goebel(1998) and Nilsson 1998.
  8. ^ Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  9. ^ White, R. W. (1959). Motivation reconsidered: The concept of competence. Psychological Review, 66, 297-333
  10. ^ Johnson 1987
  11. ^ deCharms, R. (1968). Personal causation. New York: Academic Press.
  12. ^ Muehlhauser, Luke. What is AGI?. Machine Intelligence Research Institute. [1 May 2014]. 
  13. ^ Shapiro, Stuart C. (1992). Artificial Intelligence In Stuart C. Shapiro (Ed.), Encyclopedia of Artificial Intelligence (Second Edition, pp. 54–57). New York: John Wiley. (Section 4 is on "AI-Complete Tasks".)
  14. ^ Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness . In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf
  15. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294-311.
  16. ^ Bergmair, Richard. Natural Language Steganography and an "AI-complete" Security Primitive. January 7, 2006. CiteSeerX: 10.1.1.105.129.  (unpublished?)
  17. ^ Crevier 1993,第48–50页
  18. ^ Simon 1965,第96页 quoted in Crevier 1993,第109页
  19. ^ Scientist on the Set: An Interview with Marvin Minsky
  20. ^ Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  21. ^ The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England. ( Lighthill 1973; Howe 1994) In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research". See (NRC 1999) under "Shift to Applied Research Increases Investment". See also (Crevier 1993,pp.115–117) and (Russell & Norvig 2003,pp.21–22)
  22. ^ Crevier 1993,第211页, Russell & Norvig 2003,第24页 and see also Feigenbaum & McCorduck 1983
  23. ^ Crevier 1993,第161–162,197–203,240页; Russell & Norvig 2003,第25页; NRC 1999,under "Shift to Applied Research Increases Investment"
  24. ^ Crevier 1993,第209–212页
  25. ^ As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case." McCarthy, John. Reply to Lighthill. Stanford University. 2000. 
  26. ^ "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers."Markoff, John. Behind Artificial Intelligence, a Squadron of Bright Real People. The New York Times. 2005-10-14 [2007-07-30]. 
  27. ^ Russell & Norvig 2003,第25–26页
  28. ^ Moravec 1988,第20页
  29. ^ Harnad, S. (1990) The Symbol Grounding Problem. Physica D 42: 335-346.