人工意识

维基百科,自由的百科全书

人工意识,(英语:Artificial Consciousness, AC[1],是一个涉及认知机器人学的领域,其目的是研究合成一个具有意识的人造物需要哪些必要条件。

神经科学的研究推测意识是由互相连结的区交互作用所产生的,这些脑区被称为意识相关神经区(NCC)。然而也有人反对这样的观点。人工意识的支持者则认为电脑可以模拟这种尚未完全明了的意识交互行为。在最近的研究里,Steven Ericsson-Zenith认为目前还缺少新方法和新机制去解释神经元的行为如何产生意识。[2]在人工智能哲学中关于心灵、意识和精神状态的讨论中,人工意识也是一个经常出现的话题。[3]

哲学观点[编辑]

关于意识的理论假设有很多种,所以关于人工意识的操作方案也有很多种。在哲学的语境下,关于意识最常见的分类方法可能是分为取用意识(Access consciousness)与现象意识(Phenomenal consciousness)。取用意识包括那些可以被知觉到的经验概念,而现象意识指的是那些不能被知觉到的,包括“纯感觉”、“它是怎样的”或者是感质。 (Block 1997).

关于可能性的争论[编辑]

类型物理主义者和其他怀疑论者坚持认为,意识只能够在特别的物理系统中产生,因为意识的某些特性依赖于物理构成 (Block 1978; Bickle 2003).[4][5]

Giorgio Buttazzo在他的文章《人工意识:幻想还是真实的可能》("Artificial Consciousness: Utopia or Real Possibility")中写道:我们现有的技术水平所能达到的自主水平“计算机在完全自主的运行模式下,不能表现出创造性、情感或者自由意志。一台计算机就像洗衣机一样,是由各部件构成的奴隶。” [6]

对于其他理论家(例如功能主义者),他们将精神状态定义为因果关系序列。任何系统,不管其物理构成如何,只要能够形成同样的因果关系模式,就可以被认为拥有精神状态,包括意识。 (Putnam 1967)

基于计算的观点[编辑]

关于人工意识的可能性,最明确的一个观点来自于戴维·查尔莫斯。他在文章 Chalmers 2011中提出,对于构建一个有意识的心灵来说,恰当类型的计算就足够了。在摘要中,他这样定义他的目标:计算机能够执行计算。计算可以把握其他系统的抽象因果结构。

查默斯的观点中最具争议的部分是,他认为精神特性是“结构不变的”。精神的属性分为两方面,心理学的和现象学的。心理学属性,例如信仰和知觉,是“由其因果关系定义的”。他根据Armstrong 1968Lewis 1972 这两篇文章提出“具有同样因果拓扑结构的系统...会具有同样的心理学属性。”

现象学属性初看起来并不能够通过它们的因果关系结构来定义。要建立用因果关系结构来说明现象学属性的理论,需要经过证明。查默斯为此提出了 “跳舞的感质证明”页面存档备份,存于互联网档案馆) :查默斯首先假设,拥有不同的因果结构的智能主体可以拥有不同的体验。然后他让读者想象将其中一个主题逐个更换零件(比如硅制成的神经元件),使它渐渐变成另一个主体,在过程中保留它的因果结构不变。根据原假设,在这个变换的过程中,主题的体验会发生变化,然而由于因果拓扑结构没有变化,主体无法从中“意识”到自己的经验哪一点发生了变化。

而人工意识的反对者们认为,查默斯的证明依赖于,默认所有的精神属性和外部链接都可以经过因果结构的抽象过程。

伦理学[编辑]

如果我们确定一个机器具有意识,那么它就需要成为伦理学的主题(例如,它在法律上的地位是什么)。例如,一个有意识的计算机如果被当做工具、当做建筑的中央电脑或者是巨型机器,会造成特殊的混乱。需要为这样的情况制定特别的法律,也需要为意识提供一个法律上的定义(例如,感受快乐痛苦情感的能力)。由于人工意识仍然很大程度上属于理论课题,这些伦理问题也并未被广泛讨论或研究,虽然它们常常成为科幻的主题(见下文)。

2003年的洛伯纳奖英语Loebner Prize的规则明确地指出了机器人权益的问题:

61. 如果,在任何一年里,一个经由萨里大学或者剑桥中心参赛的,可公开获得的开源参赛者获得了银奖或者金奖,那么奖牌和奖金将授予对此参赛者负责的实体。如果这样的实体无法识别,或者两个或更多的申领人之间有争议,那么奖牌和奖金将被保留在基金中直到该参赛者可以合法地在美国或者参赛地拥有对奖牌和奖金的权利[7]

研究与实施方案[编辑]

意识的各方面[编辑]

意识有很多方面被认为是为机器建造一个人工意识所必需的。伯纳德·巴尔斯英语Bernard Baars(Baars 1988) 等人提出了一系列需要意识参与的功能,包括定义与语境设定、适应与学习、整合、标记与纠错、召集与控制、排序与存取访问、决策或执行功能、模仿能力、元认知与自我观察功能、自编程与自我维持功能。Igor Aleksander为人工意识提供了12条标准(Aleksander 1995),包括:脑是一台状态机器、内部神经元分区、有意识与无意识状态、知觉学习与记忆、预测、自我意识、 意义代表、话语学习、语言学习、意愿、直觉以及情绪。人工意识的目标是定义意识的这些方面,是否以及如何能够在一台人工的机器,例如数字计算机内工程合成。这个名单并未穷尽,还有许多其他并未包含在内。

觉察[编辑]

觉察是人工意识中必需的一部分,但是关于“觉察”的确切定义还有许多问题。关于猴的镜像神经元的实验结果显示,激活神经元的不仅仅是一种状态或物体,而是一个过程。觉察包括根据来自感觉或者想象的信息构建和测试不同的模型,在做预测的时候也会有效。这样的建模需要很大的可塑性。所要建造的模型包括:物理世界模型、个人的内部状态与过程的模型、其他有意识个体的模型。

至少存在三种类型的觉察:[8] 主体觉察(agency awareness)、目标觉察(goal awareness)以及感觉动作觉察(sensorimotor awareness),这三种觉察可能是有意识的也可能不是。例如,你可能通过主体觉察知道你昨天进行了某项行为,但是现在不能意识到它;目标觉察是你可能觉察到你必须寻找一个丢失的物体,但是现在不能意识到它;感觉动作觉察,你可能觉察你的手放在一个物体上,但是现在不能意识到它。

因为被觉察的物体通常会被意识到,所以常常会混淆意识(consciousness)和觉察(awareness)之间的差别,有时它们被当做同义词使用。[9]

记忆[编辑]

有意识的事件与记忆之间,以学习、复现与检索的方式相互作用。[10] IDA模型[11] 将意识的作用描述为知觉记忆、暂时情节记忆程序记忆的更新,[12] 暂时的情节记忆与陈述性记忆在IDA模型中存在分布式表示,有证据表明它们在神经系统中也是如此。[13] 在IDA模型中,这两种记忆的计算采用了彭蒂·卡内尔瓦稀疏分布式存储器结构。[14]

学习[编辑]

伯纳德·巴尔斯认为学习对于人工意识来说也同样重要,意识的经验需要得到表示,并且转化为新的和有意义的事件 (Baars 1988) 。阿克塞尔·克里尔曼斯英语Axel Cleeremans与Luis Jiménez认为,学习可以定义为“一组系统发生学上的高级改变行为,它高度依赖于主体经验的感觉演化,以便让他们拥有在高度复杂、无法预测的环境中灵活控制行为的能力。” (Cleeremans 2001).

预期[编辑]

伊戈尔·亚历山大英语Igor Aleksander认为对于可预知的事件进行预测的能力是人工意识的重要部分。[15] 在涌现主义者丹尼尔·丹尼特《意识的解释》英语Consciousness Explained中提出的多重草稿模型可能用于预测:该模型提出了选择最适合的“草稿”来适合当前环境的评价机制。预期包括了预言自我的有意识行为的后果和他人的可能行为的后果。

真实世界中的各种关系在生物的意识中构造出镜像,从而使得生物能够预测事件。[15] 而人工意识机器也应该能够预期事件,以便当它们发生的时候进行回应,或者采取必要行为来防止相应事件发生。这暗示着该机器需要可塑性、即时反应的组成部分以便建立真实世界和预测世界的空间、动力学、统计、功能与因果关系模型,使得它足以证明不仅对于过去有意识,对于现在和未来也有意识。为了达到这一点,一个意识机器需要作出一致的预言与偶发事件应对方案,不仅仅针对类似象棋盘这样的固定规则游戏,也要针对会发生变化的新环境,可以在运行中对于真实环境进行恰当的模拟与控制。

主观经验[编辑]

主观经验或感质被广泛认为是意识的难题。事实上,这点的确被认为是对物理主义的挑战,也更加是对计算主义的挑战。但从另一方面来看,其他科学领域也遇到了可观察事物被限制的困扰,例如物理学中的不确定性原则,而这点并没有使这些科学领域的研究成为不可能。

认知架构的作用[编辑]

主条目:认知架构

术语“认知架构”可指关于人类心灵结构的理论,或指其任何部分或功能,包括意识。在其他语境中,认知架构是心灵结构理论的计算机实现。其中一个例子是QuBIC:Quantum and Bio-inspired Cognitive Architecture for Machine Consciousness(用于机器意识且受量子和生物启发的认知架构)。认知架构的主要目标之一是将认知心理学的各种成果总结在一个综合的计算机模型中,但是这些成果需要形式化,才能作为电脑程式的基础。此外,认知架构也有著让人工智慧够清晰地组织、建立和实现其思维过程的作用。

符号方法或混合方法[编辑]

富兰克林的智能分配代理[编辑]

斯坦·富兰克林(Stan Franklin)(1995,2003)定义,当一个自治代理能够实现伯纳德·巴尔斯(Bernard Baars)的全局工作空间理论(Baars1988,1997)所确定的几种意识功能时,它便具有意识功能。富兰克林开发的IDA(智慧分发代理)是全局工作空间理论的软体实作,从定义上讲,它在功能上是有意识的。IDA的任务是在美国海军的水手结束服役后,透过将每个人的技能和偏好与海军的需求相匹配,为他们谈判新的任务。IDA会与海军资料库互动,并透过使用自然语言的电子邮件与水手沟通,同时遵守一系列海军政策。IDA计算模型是在1996-2001年间由孟菲斯大学斯坦·富兰克林的“意识”软体研究小组开发的。它“由大约25万行Java代码组成,几乎耗尽了2001年高级工作站的资源。”它在很大程度上依赖于codelets,这些codelets是“特殊用途且相对独立的小型代理”,通常实作是作为单独执行绪执行的一小段代码。在IDA的自上向下的架构中,高级认知功能被明确建模(详见Franklin1995和Franklin2003)。虽然IDA在功能上是有意识的,但富兰克林仍未认为‘有意识的’软体代理人IDA有著现象意识的属性,尽管IDA有著许多类似人类的行为,尽管几名美国海军的规划人员在观察IDA执行任务时的内外部行动时会一直点头说‘是的,我就是这么做的’。IDA目前已经扩展到LIDA(学习型智能分配代理)。

Ron Sun 的认知架构 CLARION[编辑]

CLARION提出了一种双重表征,解释了心理过程中有意识和无意识之间的区别。

CLARION成功解释了各种心理学资料。从简单的反应技能到复杂的认知技能,CLARION已模拟了一些著名的技能学习任务,任务包括连续反应时间(SRT)、人工文法学习(AGL)、过程控制(PC)、分类推理(CI)、字母算术(AA)和河内塔(TOH)(Sun 2002)。其中SRT、AGL和PC是典型的隐性学习任务,在心理学实验的背景下使意识的概念得以操作化(operationalization),因此与意识问题极为相关。

本‧格策尔的 OpenCog[编辑]

本‧格策尔(Ben Goertzel)透过开源OpenCog专案寻求一种体现AGI。现时的程式码是在香港理工大学完成,有能够学习简单英语命令的体化的虚拟宠物,以及与现实世界机器人技术的整合。

联结主义方法[编辑]

Haikonen的认知架构[编辑]

Shanahan的认知架构[编辑]

Takeno的自我觉察研究[编辑]

亚历山大不可能存在的心灵[编辑]

泰勒的创造力机器范式[编辑]

迈克尔·格拉齐亚诺的注意力基模[编辑]

2011年,迈克尔·格拉齐亚诺(Michael Graziano)和Sabine Kastler发表了一篇名为《人类意识及其与社会神经科学的关系:一个新颖的假设》的论文,提出了意识作为注意力基模的理论。[16]格拉齐亚诺在他的《意识和社会大脑》一书中发表了对这理论的延伸讨论。这种意识的注意力基模理论,正如他所命名的那样,提出大脑是透过注意力基模来追踪对各种感觉输入的注意力,与被充分研究过、追踪人体空间位置的身体基模类似。这与人工意识有关,借由提出一种特定的资讯处理机制,产生了我们所谓的经验和描述为意识的东西,这种意识应该能够被使用当前技术的机器所复制。当大脑发现人物X觉察到事物Y时,它实际上是在模拟人物X对事物Y施加注意力增强的状态。在注意力基模理论中,同样的过程也适用于自己。大脑跟踪对各种感觉输入的注意,而一个人的自我觉察是其注意力的基模化模型。格拉齐亚诺还提出了这个过程在大脑中的特定位置,并认为这种觉察是由大脑中的专家系统所建立的计算特征。

自我建模[编辑]

参考文献[编辑]

注释[编辑]

  1. ^ Thaler, S. L. The emerging intelligence and its critical look at us. Journal of Near-Death Studies. 1998, 17 (1). doi:10.1023/A:1022990118714. 
  2. ^ Graziano, Michael. Consciousness and the Social Brain. Oxford University Press. 2013. ISBN 978-0199928644. 
  3. ^ Artificial Intelligence: A Modern Approach includes the philosophical foundations of AI including the questions of consciousness http://aima.cs.berkeley.edu/contents.html页面存档备份,存于互联网档案馆), Russell, Stuart J., Norvig, Peter, 2003, Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2
  4. ^ "Why not artificial consciousness or thought?", Schlagel, R. H., 1999, Minds and Machines, 9(1), 3-28
  5. ^ "Minds, brains, and programs", Searle, J. R., 1980, Behavioral and brain sciences, 3(3), 417-457
  6. ^ Artificial consciousness: Utopia or real possibility?页面存档备份,存于互联网档案馆) Buttazzo, Giorgio, July 2001, Computer, ISSN 0018-9162
  7. ^ Loebner Prize Contest Official Rules — Version 2.0页面存档备份,存于互联网档案馆) The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  8. ^ Joëlle Proust in Neural Correlates of Consciousness, Thomas Metzinger, 2000, MIT, pages 307-324
  9. ^ Christof Koch, The Quest for Consciousness, 2004, page 2 footnote 2
  10. ^ Tulving, E. 1985. Memory and consciousness. Canadian Psychology 26:1-12
  11. ^ Franklin, Stan, et al. "The role of consciousness in memory." Brains, Minds and Media 1.1 (2005): 38.
  12. ^ Franklin, Stan. "Perceptual memory and learning: Recognizing, categorizing, and relating." Proc. Developmental Robotics AAAI Spring Symp. 2005.
  13. ^ Shastri, L. 2002. Episodic memory and cortico-hippocampal interactions. Trends in Cognitive Sciences
  14. ^ Kanerva, Pentti. Sparse distributed memory. MIT press, 1988.
  15. ^ 15.0 15.1 Aleksander 1995
  16. ^ Graziano, Michael. Human consciousness and its relationship to social neuroscience: A novel hypothesis. Cognitive Neuroscience. 1 January 2011, 2 (2): 98–113. PMC 3223025可免费查阅. PMID 22121395. doi:10.1080/17588928.2011.565121. 

参考书目[编辑]

延伸阅读[编辑]

  • Baars, Bernard and Franklin, Stan. 2003. How conscious experience and working memory interact. Trends in Cognitive Science 7: 166–172.
  • Casti, John L. "The Cambridge Quintet: A Work of Scientific Speculation", Perseus Books Group , 1998
  • Franklin, S, B J Baars, U Ramamurthy, and Matthew Ventura. 2005. The role of consciousness in memory页面存档备份,存于互联网档案馆). Brains, Minds and Media 1: 1–38, pdf.
  • Haikonen, Pentti (2004), Conscious Machines and Machine Emotions, presented at Workshop on Models for Machine Consciousness, Antwerp, BE, June 2004.
  • McCarthy, John (1971–1987), Generality in Artificial Intelligence页面存档备份,存于互联网档案馆). Stanford University, 1971-1987.
  • Penrose, Roger, The Emperor's New Mind, 1989.
  • Sternberg, Eliezer J. (2007) Are You a Machine? Tha Brain the Mind and What it Means to be Human. Amherst, NY: Prometheus Books.
  • Suzuki T., Inaba K., Takeno, Junichi (2005), Conscious Robot That Distinguishes Between Self and Others and Implements Imitation Behavior, (Best Paper of IEA/AIE2005), Innovations in Applied Artificial Intelligence, 18th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, pp. 101–110, IEA/AIE 2005, Bari, Italy, June 22–24, 2005.
  • Takeno, Junichi (2006), The Self-Aware Robot -A Response to Reactions to Discovery News-, HRI Press, August 2006.
  • Zagal, J.C., Lipson, H. (2009) "Self-Reflection in Evolutionary Robotics", Proceedings of the Genetic and Evolutionary Computation Conference, pp 2179–2188, GECCO 2009.

外部链接[编辑]