尼克·博斯特罗姆
外观
尼克·博斯特罗姆 Nick Bostrom | |
---|---|
出生 | Niklas Boström 1973年3月10日 瑞典赫尔辛堡 |
母校 | 哥德堡大学(BA) 斯德哥尔摩大学(MA) 伦敦国王学院(MSc) 伦敦政治经济学院(PhD) |
机构 | 牛津大学圣十字学院 人类未来研究所 |
网站 | nickbostrom |
时代 | 当代哲学 |
地区 | 西方哲学 |
学派 | 分析哲学[1] |
主要领域 | 人工智能哲学 生物伦理学 |
著名思想 | 人类偏见 逆转测试 模拟理论 存在风险 单例模式 祖先模拟 情报灾害 无限主义的瘫痪[2] 自我暗示假设 自我取样假设 |
论文 | Observational Selection Effects and Probability (2000年) |
尼克·博斯特罗姆(英语:Nick Bostrom,/ˈbɒstrəm/ BOST-rəm;瑞典语:Niklas Boström,[ˈnɪ̌kːlas ˈbûːstrœm];1973年3月10日—[3])是一名出生于瑞典的牛津大学哲学家,以其在存在风险、人择原理、人类增强伦理学、超智能风险和逆转测试方面的工作而知名。2011年,他创立了牛津大学马丁未来技术影响项目[4],并且是牛津大学人类未来研究所的创始主任[5]。2009年和2015年,他被列入《外交政策》的全球百大思想家名单[6][7]。
博斯特罗姆发表了200多篇文章[8],并写了两本书,还与人合编了两本书。他撰写的两本书是《人类偏见:科学和哲学中的观察选择效应》(2002)[9]和《超级智能:路径、危险、战略》(2014)。《超级智能》是《纽约时报》的畅销书[10],被伊隆·马斯克和比尔·盖兹等人推荐,并帮助普及了“超智能”一词。
博斯特罗姆认为,超智能,他将其定义为“在几乎所有感兴趣的领域都大大超过人类认知能力的任何智力”,是人工智能进步的一个潜在结果。他认为超智能的崛起对人类有潜在的高度危险,但他拒绝人类无力阻止其负面影响的观点[11][12]。2017年,他联合签署了一份所有人工智能发展应遵循的23项原则的清单[13]。
参见
[编辑]参考资料
[编辑]- ^ Khatchadourian, Raffi. The Doomsday Invention. The New Yorker. Vol. XCI no. 37. 23 November 2015: 64–79 [2023-01-11]. ISSN 0028-792X. (原始内容存档于2016-01-28).
- ^ Infinite Ethics (PDF). nickbostrom.com. [21 February 2019]. (原始内容存档 (PDF)于2023-03-27).
- ^ nickbostrom.com. Nickbostrom.com. [16 October 2014]. (原始内容存档于30 August 2018).
- ^ Professor Nick Bostrom : People. Oxford Martin School. [16 October 2014]. (原始内容存档于15 September 2018).
- ^ Future of Humanity Institute – University of Oxford. Fhi.ox.ac.uk. [16 October 2014]. (原始内容存档于2007-02-02).
- ^ Frankel, Rebecca. The FP Top 100 Global Thinkers. Foreign Policy. [5 September 2015]. (原始内容存档于2020-04-10).
- ^ Nick Bostrom: For sounding the alarm on our future computer overlords.. Foreign Policy. [1 December 2015]. (原始内容存档于2018-03-06).
- ^ Thornhill, John. Artificial intelligence: can we control it?. Financial Times. 14 July 2016 [10 August 2016]. (原始内容存档于10 December 2022).
- ^ Nick Bostrom on artificial intelligence. Oxford University Press. 8 September 2014 [4 March 2015]. (原始内容存档于2015-04-02).
- ^ Times, The New York. Best Selling Science Books. The New York Times. 2014-09-08 [19 February 2015]. (原始内容存档于2018-08-25).
- ^ Bill Gates Is Worried About the Rise of the Machines. The Fiscal Times. [19 February 2015]. (原始内容存档于2015-02-19).
- ^ Bratton, Benjamin H. Outing A.I.: Beyond the Turing Test. The New York Times. 23 February 2015 [4 March 2015]. (原始内容存档于2022-02-27).
- ^ UK, Sam Shead, Business Insider. The CEO of Google DeepMind is worried that tech giants won't work together at the time of the intelligence explosion. Business Insider. 6 February 2017 [21 February 2019]. (原始内容存档于2019-04-13).
外部链接
[编辑]- 官方网站
- Radio Bostrom (页面存档备份,存于互联网档案馆). Audio narrations of Bostrom's academic papers.
- Anthropic Principle (页面存档备份,存于互联网档案馆). Bostrom's website about the anthropic principle and the Doomsday argument.
- Simulation Argument (页面存档备份,存于互联网档案馆). Bostrom's website about the simulation argument.
- Existential Risk (页面存档备份,存于互联网档案馆). Bostrom's website about existential risk.
- 尼克·博斯特罗姆在互联网电影资料库(IMDb)上的资料(英文)
- TED上的尼克·博斯特罗姆
- Nick Bostrom在TWiT.tv上的节目《Triangulation》的采访(英文)