OpenCog
外觀
原作者 | OpenCog Developers |
---|---|
開發者 | OpenCog Foundation |
首次發布 | 2008年1月21日[1] |
當前版本 |
|
原始碼庫 | |
程式語言 | C++、Python、Scheme |
平台 | Linux |
類型 | 強人工智慧 |
許可協議 | |
網站 | opencog |
OpenCog是一項以打造開源人工智慧框架為目標的開發專案,OpenCog Framework是一種應用於廣泛AGI研究的通用框架,其中OpenCog Prime是一種用於機器人和虛擬體化認知的架構,該架構定義了一組互動元件,用來產生與人類對等,從整體系統湧現而來的通用人工智慧(AGI),[3]本‧格策爾(Ben Goertzel)是其主要設計者。使用OpenCog進行的研究已發表在期刊上,也在包含年度人工智慧大會在內的各種會議和研討會上被介紹。 OpenCog是根據GNU Affero通用公共許可證的條款發行的。
包括華為和思科在內的50多家公司正在使用OpenCog。 [4]
起源
[編輯]Novamente LLC在2008年發布專利「 Novamente認知引擎」(NCE),最初的OpenCog則是以其原始碼為基礎來開發的。PLN手冊有對NCE原始碼進行討論(請參閱下方的參考文獻)。人工智慧研究院(AGIRI)、Google夏日程式碼計畫、漢森機器人公司、SingularityNET等單位也持續支援對OpenCog的開發。
元件
[編輯]OpenCog包含:
- 圖形資料庫「AtomSpace (頁面存檔備份,存於網際網路檔案館)」,其中包含「原子」(即項、原子公式、句子和關係 )與其「值」(賦值或解釋 ,可以視為每個原子的鍵值資料庫) )。其中一個值的例子為真值 。 原子是全局唯一的,且不可變,被編入了索引之中(可搜索);值則是暫時且可變的。
- 一組預定義的原子,它們編碼可滿足性模理論求解器,作為通用圖形査詢引擎的內建部分,用於執行圖形和超圖形模式匹配( 同構子圖探索 )。 這將結構化查詢語言( SQL )的概念推廣到通用圖形查詢的領域,是圖形查詢語言的延伸型式。
- 「規則引擎」包括前向連接器和後向連結器 ,能夠將規則串聯起來。這些規則正是圖形査詢子系統的圖形査詢規則,因此規則引擎與計劃查詢器相似。 它是為了能夠實作不同類型的「推理引擎」(reasoning systems)和推理系統而設計,例如貝葉斯推理或模糊邏輯 ,或用於實現實際任務,如約束求解器或運動規劃器 。
- 「ECAN」是一種基於經濟學理論的注意力分配子系統。[5] 在控制推理和連結過程中所遇到的搜索可能性會產生組合爆炸,該子系統即用於控制組合爆炸。
- 「機率推理引擎」是根據機率邏輯網路 (PLN)的實作。 目前實作方式是使用規則引擎將特定的邏輯推理規則(如假言推理 )與一些具體的數學公式合起來,為每個演繹推論分配機率和置信度。這個子系統可以被認為是使用改良過的貝葉斯推理形式的證明助手 。
- 「元語義最佳化演化搜索」(Meta-Optimizing Semantic Evolutionary Search, or MOSES)是一種機率遺傳程式演化器,[6] 用於探索完成任務的簡短Atomese程式。;這些可以被認為是執行一種決策樹學習 ,進而產生決策森林 ,或更精確地說是其歸納。
- 自然語言生成系統[7] 。
應用領域
[編輯]與其他認知架構類似,主要目的是建立虛擬人類,這是三維的虛擬化身。 目的是模仿諸如情緒、手勢和學習之類的行為。舉例來說,由於人類有情感,因此僅會對軟體中的情感模塊程式進行撰寫。如果能夠模擬人類的智慧,那就可以實現人工智慧。[10]
OpenCog計畫的自我描述提供了其他可能的應用程式,這些應用程式正朝著自然語言處理以及對狗的模擬方向發展。[11]
參見
[編輯]外部連結
[編輯]- 官方網站
- OpenCog Wiki (頁面存檔備份,存於網際網路檔案館)
- YouTube上的AGI 2011: OpenCog - GoogleTechTalks
- YouTube上的AGI 2011: Architectures Part I - GoogleTechTalks
- YouTube上的Artificial General Intelligence: Now Is the Time - 2007 GoogleTechTalks
- CogPrime: An Integrative Architecture for Embodied Artificial General Intelligence (頁面存檔備份,存於網際網路檔案館)
- OpenCog: An Open Source Software Framework & A Design & Vision for Advanced AGI.&t=0h0m0s YouTube上的影片 Given at Monash University Australia, Sept 2011. Adam Ford
- Video introduction to OpenCog by Ben Goertzel&t=0h0m0s YouTube上的影片. Ben speaks on OpenCog in Tai Po, Hong Kong, Dec 2011. Adam Ford
- Ben Goertzel - the future of AGI - Open Cog development in Asia&t=0h0m0s YouTube上的影片 Adam Ford
參考資料
[編輯]- ^ OpenCog Release. 21 January 2008 [21 January 2008]. (原始內容存檔於2016-01-28).
- ^ Release 5.0.3. 2016年6月28日 [2018年7月22日].
- ^ OpenCog: Open-Source Artificial General Intelligence for Virtual Worlds | CyberTech News. 2009-03-06 [2016-10-01]. (原始內容存檔於2009-03-06).
- ^ Rogers, Stewart. SingularityNET talks collaborative AI as its token sale hits 400% oversubscription. venturebeat.com. VentureBeat. 2017-12-07 [2018-03-13]. (原始內容存檔於2017-12-07).
- ^ Economic Attention Allocation. [2021-08-18]. (原始內容存檔於2011-10-13).
- ^ MOSES. [2021-08-18]. (原始內容存檔於2010-08-26).
- ^ Natural Language Generation.. [2021-08-18]. (原始內容存檔於2017-05-17).
- ^ OpenPsi. [2021-08-18]. (原始內容存檔於2014-05-16).
- ^ Archived copy. [2015-04-24]. (原始內容存檔於2018-03-19).
- ^ David Burden; Maggi Savin-Baden. Virtual Humans: Today and Tomorrow. CRC Press. 24 January 2019 [25 August 2020]. ISBN 978-1-351-36526-0. (原始內容存檔於2021-04-30).
- ^ Ben Goertzel; Cassio Pennachin; Nil Geisweiller. Engineering General Intelligence, Part 1: A Path to Advanced AGI via Embodied Learning and Cognitive Synergy. Springer. 8 July 2014: 23– [2021-08-18]. ISBN 978-94-6239-027-0. (原始內容存檔於2021-04-30).