通用人工智能的生存风险:修订间差异
删除的内容 添加的内容
本次编辑主要来源,翻译外语维基百科对应条目 |
(没有差异)
|
2023年5月2日 (二) 16:19的版本
通用人工智能的存在风险是假设通用人工智能(AGI) 的重大进展可能导致人类灭绝或其他一些无法恢复的全球灾难。[1][2][3]
存在风险(“x-risk”)学派的论点如下:人类物种目前支配着其他物种,因为人类大脑具有其他动物所缺乏的一些独特能力。如果人工智能在一般智能上超越人类,成为“超级智能”,那么人类将难以或无法控制。正如山地大猩猩的命运取决于人类的善意,人类的命运也可能取决于未来机器超级智能的行为。[4]
参见
參考資料
- ^ Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence. Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4.
- ^ Bostrom, Nick. Existential risks. Journal of Evolution and Technology. 2002, 9 (1): 1–31.
- ^ Turchin, Alexey; Denkenberger, David. Classification of global catastrophic risks connected with artificial intelligence. AI & Society. 2018-05-03, 35 (1): 147–163. ISSN 0951-5666. S2CID 19208453. doi:10.1007/s00146-018-0845-5.
- ^ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies First. 2014. ISBN 978-0199678112.