人性化的人工智能發展需要監管制度的加入
人工智能目前容易受到偏見和其他缺陷的影響。
人工智能(Ai) 正在或即將顛覆每一個行業。到 2030 年,這項技術將帶來生產率的大幅提高、成本的大幅降低和研發的巨大進步,人工智能將使全球 GDP 增長逾 15.7 萬億美元,人們很容易認為這項技術只能是一件不受約束的好事。這將是一個危險的錯誤。
與任何技術一樣,人工智能可能對個人、社會和經濟產生有害影響:一些共同關切的問題包括,犯罪分子可能會利用人工智能提供的工具來危害個人和組織的網絡安全,或者人工智能的預測能力會引發一系列隱私問題。然而,對于人工智能而言,最危險的可能性之一將被用來削弱強大組織內部的責任結構,同時延續在受保護特征(如年齡、性別或種族)方面存在的不公正現象。
市場往往不重視個人道德和倫理原則的目的。雖然在人工智能標準的制定方面有一些重大舉措,比如 IEEE 倫理一致性設計標準或人工智能 ISO 標準,但人們不能依靠自律來使這項技術發揮作用。相反,人們必須通過建立有目的的監管框架來保護自己的道德,這將強制該行業的最佳做法并減少惡意行為。
人工智能的社會挑戰
如前所述,使監管體系具有說服力的兩個挑戰是偏見和問責制。
我們都知道,如果人工智能的設計、開發或部署不恰當,就會造成不良的社會偏見。這是因為,這些數據在整個歷史上都是社會固有的偏見。這意味著,如果該模型使用帶有偏見的數據進行培訓,這種數據代表或低估了某些特征、結果或群體,該模型最終可能會做出基于這種偏見的社會不公正決策。例如,許多負責整個美國警務工作的人工智能都接受了培訓 -- 這是關于犯罪和種族之間聯系的現成虛假數據,導致這些模型偏袒少數族裔的決策。
在問責制方面,在整個人工智能系統的設計、發展和運作上,個人和機構的責任都有一定程度的模糊性。考慮到被自動駕駛儀撞倒的人的情況,誰應該負責?傳統上,汽車制造商應對其汽車設計造成的損害負責,但人工智能開辟了一個可以推卸責任的復雜責任鏈:有些可以說是制造商,即那些注冊開發駕駛人工智能的軟件開發商、認可的人工智能合規官員或批準錯誤自動駕駛人工智能規格的行業組織。
一個可以要求一定程度責任的利益相關者網絡意味著,那些為人工智能的過錯尋求賠償或正義的人可能會面臨官僚噩夢。考慮到人工智能模型可以做出影響個人未來的重大決策,個人無力追究組織責任,可能會使個人無法抵制機構無能或惡意。
為什么監管是解決這些挑戰的辦法?
幸運的是,專家們在開發解決這兩個社會問題的工具和程序方面取得了進展。
為了減少偏見,從事人工智能的人知道如何更嚴格地選擇培訓數據。在網絡安全領域,人們已經認識到,雖然不可能引進防止系統被黑的通用技術,但可以采用進程和接觸點,以確保最佳做法,以減輕網絡安全漏洞。
同樣,在算法偏差方面,可以采用流程和最佳做法,以確保減輕不受歡迎的偏見。通過利用領域專家的知識和可解釋的人工智能技術,各組織可以減輕風險,并在關鍵過程中引入可解釋性。這可以確保盡量減少對培訓數據的系統性偏見,從而防止模型做出歧視性決定。在恢復問責制方面,還可以在整個人工智能生命周期內引入相關的聯絡點,從而使人們參與決策過程,以確保在整個過程中建立問責制結構。
然而,人們不能指望私營部門確保這些做法得到廣泛實施。相反,這些與偏見、恢復問責制和提高可解釋性有關的最佳做法必須受到外界的啟發。這就是為什么人工智能需要一個監管環境。為此,決策者和開發商需要團結起來,開展跨學科合作,以平衡技術、社會和法律需求。
合規的另一個效果是,它將在現場獲得更大的信心和穩定性。如果實施得當,良好的監管體系將迫使人們采用人工智能部署的最佳做法,為實施這些做法創造新的就業機會,吸引更多行業投資,并刺激更多創新,使人工智能人性化和轉型。