通用人工智能的生存风险:修订间差异

维基百科,自由的百科全书
删除的内容 添加的内容
本次编辑主要来源,翻译外语维基百科对应条目
(没有差异)

2023年5月2日 (二) 16:19的版本

通用人工智能的存在风险是假设通用人工智能(AGI) 的重大进展可能导致人类灭绝或其他一些无法恢复的全球灾难。[1][2][3]

存在风险(“x-risk”)学派的论点如下:人类物种目前支配着其他物种,因为人类大脑具有其他动物所缺乏的一些独特能力。如果人工智能在一般智能上超越人类,成为“超级智能”,那么人类将难以或无法控制。正如山地大猩猩的命运取决于人类的善意,人类的命运也可能取决于未来机器超级智能的行为。[4]

参见


參考資料

  1. ^ Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence. Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick. Existential risks. Journal of Evolution and Technology. 2002, 9 (1): 1–31. 
  3. ^ Turchin, Alexey; Denkenberger, David. Classification of global catastrophic risks connected with artificial intelligence. AI & Society. 2018-05-03, 35 (1): 147–163. ISSN 0951-5666. S2CID 19208453. doi:10.1007/s00146-018-0845-5. 
  4. ^ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies First. 2014. ISBN 978-0199678112.