跳至內容

機器人三定律

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書

機器人三定律(英語:Three Laws of Robotics)是科幻小說以撒·艾西莫夫(Isaac Asimov)在他的機器人相關作品和其他機器人相關小說中為機器人設定的行為準則,是艾西莫夫除「心理史學」(Psychohistory)外另一個著名的虛構學說。

定律

[編輯]
  • 第一法則
機器人不得傷害人類,或坐視人類受到傷害;
  • 第二法則
機器人必須服從人類命令,除非命令與第一法則發生衝突;
  • 第三法則
在不違背第一或第二法則之下,機器人可以保護自己。

在1985年《機器人與帝國》中,艾西莫夫將三大法則擴張為四大法則:[1]

  • 第零法則
機器人不得傷害整體人類,或坐視整體人類受到傷害;
  • 第一法則
除非違背第零法則,否則機器人不得傷害人類,或坐視人類受到傷害;
  • 第二法則
機器人必須服從人類命令,除非命令與第零或第一法則發生衝突;
  • 第三法則
在不違背第零、第一或第二法則之下,機器人可以保護自己。

簡介

[編輯]

「機器人三定律」在以撒·艾西莫夫於1942年發表的作品《轉圈圈》(Runaround,《我,機械人》(I, Robot)中的一個短篇)中第一次明確提出,載於小說裡虛構的《西元2058年第56版機器人手冊》中[2],並且成為他的很多小說,包含基地系列小說中機器人的行為準則和故事發展的線索。機器人被設計為遵守這些準則,違反準則會導致機器人受到不可恢復的心理損壞。但是在某些場合,這樣的損壞是不可避免的。在兩個人互相造成傷害時,機器人不能任人受到傷害而無所作為,但是這會造成對另一個人的傷害,在一些小說中這造成了機器人的自毀。

他在小說中提出了三定律的很多變體。這些對機器人行為準則的修改成為他的很多故事的主線。在《消失無蹤》(Little Lost Robot,《我,機械人》中的一個短篇)中為了避免機器人無謂地阻止人類進行低危險性工作,第一定律中的後半部分被去掉了,但是也產生了一些其他的問題[2]。在《機械人之夢》(Robot Dreams,同名小說中的短篇)中,有個機器人因為正子腦出現不尋常碎形結構而進入無意識與夢境狀態;夢中第一及第二法則不復存在,而第三法則被修改為「機器人必須保護自身的存在」[3]。在《機器人與帝國》中,有些機器人因為系統中「人類的定義」被修改(說話沒有該星球的口音就不是人類)而攻擊人類[4]。在1999年上映的科幻電影《雙百人》(Bicentennial Man,原為短篇小說,後改編為中篇小說《正子人》)中,一個機器人為了成為人,將自己的機械部分逐步替換成組織,並且在最後用自己的貢獻和犧牲換來了人類的認同和保護機器人的法律的產生。[5]

三定律在科幻小說中大放光彩,在一些其他作者的科幻小說中的機器人也遵守這三條定律。同時,三定律也具有一定的現實意義,在三定律基礎上建立新興學科「機械倫理學」旨在研究人類和機械之間的關係。但是現存的機器人並未有足夠的智能去分辨人類和危險等概念,因此三定律並未實際應用在機器人上面;或許要等人工智慧有顯著進展才有可能,只不過就算AI智能可達到人類水平,內在倫理的複雜性加上定律有賴於文化與情境,將成為制定「機器人約束」的莫大挑戰。[6]

修改和擴充

[編輯]

在此之後,不少其他作者添加或修改定律,例如有更改第三定律,讓第二定律不再置於第三定律之前(讓人類不能命令機器人自滅),另一些則是讓機器人要一直認為自己是機器人(某些故事中的機器人把自己定義為人類,從而無視三定律)[7]。因此出現了很多不同的第四、第五甚至第六定律。[8][9]

2020年,Frank Pasquale提出「機器人新律」:1.機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士。2. 機器人系統與AI不應該假冒人。3. 機器人系統和人工智慧不應該加劇零和博弈的軍備競賽。4.機器人系統與AI必須隨時標示其創造者、控制者及擁有者的身分[10]。Frank Pasquale希望透過「決策民主化」的方法來探索人類與AI如何合作以保障未來繁榮,而不是將希望寄託在企業身上。 [11]

評價

[編輯]

中國武漢大學哲學家Chris Stokes認為所謂「機器人三定律」由於語言上的歧義道德方面的問題,在現實世界中不起作用,在編程中也難以實現[12]

參考

[編輯]

參考來源

[編輯]
  1. ^ Isaac Asimov. BBC. [11 November 2010]. (原始內容存檔於2010-01-10). 
  2. ^ 2.0 2.1 Asimov, Isaac. Runaround. I, Robot The Isaac Asimov Collection. New York City: Doubleday. 1950: 40. ISBN 978-0-385-42304-5 (英語). This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law. 
  3. ^ Asimov, Isaac. Robot Dreams. 1986 [11 November 2010]. 「But you quote it in incomplete fashion. The Third Law is 『A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.』 」 「Yes, Dr. Calvin. That is the Third Law in reality, but in my dream, the Law ended with the word 『existence’. There was no mention of the First or Second Law.」 
  4. ^ Asimov, Isaac. Robots and Empire. Doubleday books. 1985: 151. ISBN 978-0-385-19092-3. although the woman looked as human as Daneel did, she was just as nonhuman 
  5. ^ Asimov, Isaac. The Complete Stories, Volume 2. Doubleday. 1992: 568–604. ISBN 978-0-385-42078-5. 
  6. ^ Murphy, Robin; Woods, David D. Beyond Asimov: The Three Laws of Responsible Robotics (PDF). IEEE Intelligent Systems. July 2009, 24 (4): 14–20 [2023-12-08]. S2CID 3165389. doi:10.1109/mis.2009.69. (原始內容存檔 (PDF)於2023-04-09). 
  7. ^ Don D'Ammassa. Allen, Roger MacBride. Encyclopedia of science fiction. Infobase Publishing. 2005: 7. ISBN 978-0-8160-5924-9. 
  8. ^ Lawful Little Country: The Bulgarian Laws of Robotics | The Portal. [2023-12-08]. (原始內容存檔於2011-10-06). 
  9. ^ Ashrafian, Hutan. AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics. Science and Engineering Ethics. 2014, 21 (1): 29–40. PMID 24414678. S2CID 2821971. doi:10.1007/s11948-013-9513-9. 
  10. ^ Frank Pasquale. 二十一世紀機器人新律:如何打造有AI參與的理想社會?. 由李, 姿儀翻譯. 台灣: 左岸文化. 2023-03-08. ISBN 9786267209271. 
  11. ^ Frank Pasquale. New Laws of Robotics: Defending Human Expertise in the Age of AI. Belknap Press: An Imprint of Harvard University Press. 2020-10-27. ISBN 978-0674975224. 
  12. ^ The Three Laws of Robotics Have Failed the Robots. Mind Matters. 2019-09-28 [2022-12-07]. (原始內容存檔於2022-12-07). Chris Stokes, a philosopher at Wuhan University in China, says, 「Many computer engineers use the three laws as a tool for how they think about programming.」 But the trouble is, they don’t work.
    He explains in an open-access paper:The First Law fails because of ambiguity in language, and because of complicated ethical problems that are too complex to have a simple yes or no answer.The Second Law fails because of the unethical nature of having a law that requires sentient beings to remain as slaves.The Third Law fails because it results in a permanent social stratification, with the vast amount of potential exploitation built into this system of laws.