從先進的人工通用智能(AGI)中受益的過程是怎么樣的
人工智能的創立是許多人工智能專家的終點。一個 AGI 智能體可以用來解決世界上無數的問題。例如,你可以把一個問題介紹給一個 AGI 代理,而 AGI 可以利用深度強化學習和它新引入的新興意識來做出現實的決策。
AGI 算法和傳統算法的不同之處在于,AGI 可以問自己一些重要的問題。AGI 可以計算出它想要達到的最終解決方案,模擬假設的到達方法,然后明智地決定哪一個模擬現實與設定的目標最匹配。
自從 1956 年達特茅斯會議首次提出 "人工智能" 一詞以來,人們一直在爭論 AGI 是如何產生的。自那以后,許多公司都試圖迎接 AGI 的挑戰,而 OpenAI 可能是最受認可的公司。OpenAI 作為一個非營利組織于 2015 年 12 月 11 日成立,其使命是確保人工智能(AGI)-- 一個高度自治的系統 -- 在經濟價值最高的工作中超越人類,造福全人類。
OpenAI 任務聲明清楚地概述了 AGI 可以給社會帶來的潛在好處。突然之間,對人類和傳統人工智能系統來說過于復雜的問題現在可以解決了。
發布 AGI 的潛在好處是天文數字。你可以宣布一個治愈各種癌癥的目標,然后 AGI 可以連接互聯網,以每種語言掃描所有當前的研究。AGI 可以開始開發解決問題的方案,然后模擬所有可能的結果。它將把人類目前意識到的優勢與對云的無限了解結合起來,利用深入學習來識別這些大數據,并使用強化學習來模擬不同的環境 / 結果。所有這些,再加上不需要休息的感覺,都可以 100% 地集中在手頭的任務上。
它的缺點是不斷升級的原子系統,這個目標不可能永遠吞噬它的潛在資源。尼克·博斯特羅姆教授在他的著作 "回形針最大化器"(The Maximer OF 回形針)中詳細討論了這一理論,在這種情況下,被錯誤配置的 AGI 被指示生產回形針,直到什么都不剩,地球上的幾乎所有資源都被消耗,以最大限度地生產回形針。
更現實的觀點是,AGI 可能被流氓國家或道德低下的公司控制。這個實體可以讓 AGI 程序實現利潤最大化,在這種情況下,如果編程不好,沒有悔意,它可以選擇破產的競爭對手,摧毀供應鏈,入侵股票市場,清算銀行賬戶等等。
因此,從一開始就需要在 AGI 中對倫理學進行編程。許多人都在爭論道德準則,作者艾薩克·阿西莫夫(AIDS Assimov) 首次以機器人 3 定律的形式向普通人介紹了這一概念。
機器人的三條定律存在一些問題,因為它們可以用不同的方式加以解釋。在我們之前接受查爾斯·J·西蒙(CharlesJ.Simon) 的采訪時,"計算機抵抗" 一書的作者查爾斯·J·西蒙(Charles J.Simon) 說," 我們討論了 AGI 中的倫理編程。
2020 年 4 月 7 日,大腦模擬器 II 向公眾發布。這個版本的大腦模擬器允許實驗進入不同的人工智能算法,創建一個端到端的 AGI 系統,包括視覺、聽覺、機器人控制、學習、內部建模,甚至規劃、想象力和遠見。
Simon 解釋道:" 直接解決認知問題的新的、獨特的算法是幫助人工智能發展為 AGI 的關鍵。
西蒙指出:"大腦模擬器 II 將視覺和觸覺結合成一個單一的心理模型,并在理解因果關系和時間流逝方面取得了進展。" 隨著模塊的增強,越來越多的智能將出現。
大腦模擬器 II 將人工神經網絡(Ann) 與象征性人工智能技術連接起來,創造了新的可能性。它創造了由無數突觸連接的數百萬神經元。
這使各種實體能夠研究 AGI 發展的可能性。
任何對腦模擬器 II 感興趣的人都可以通過下載軟件、推薦新功能,甚至添加定制模塊來跟蹤或參與開發過程。
與此同時,新冠肺炎病毒最近擾亂了社會。如果我們有了 AGI 系統,我們就可以利用這個 AGI 系統,快速確定如何阻止新冠肺炎的傳播,以及更重要的是如何治療患者。盡管使用 AGI 幫助疫情可能為時已晚,但 AGI 可能是我們未來爆發疫情的最佳工具。