AI再進化 打開決策理據「黑盒」

評論版 2019/02/16

分享:

人工智能(AI)漸漸滲入人類的日常生活,人臉辨識解鎖手機、銀行批核貸款,背後均有人工智能的影子,大眾對於人工智能如何下判斷卻一無所知,對其決策半信半疑。

只知結果不知理據 教人怎相信

科技問題,科技解決。近年學術界和科技企業決心催生具解釋能力的人工智能(Explainable Artificial Intelligence,簡稱XAI)。不過,未來若此技術成熟並廣泛應用,為其決定負上責任的,應是人工智能自身、開發者,還是選擇信納「它/他/她」的我們?恐怕不再是科技所能解決的問題。

有賴深度學習技術,人工智能在過去十年急速發展,在臉部識別、自動駕駛等領域取得突破,惟其有一個無法忽視的黑盒——就是旁人只能知道其決策結果,卻無從稽考其背後理據。試想當人工智能作出似乎有違常理的行為或決策,若不附加解釋讓人類了解其決策理據,教人如何相信、接受並使用它?

催生具解釋能力AI 發掘新見解

外國政府已開始關注人工智能的法律責任,並視「要求人工智能解釋其決定」為個人權利。歐盟去年5月實施《通用數據保障條例》(GDPR),便規定公民有權就任何影響他們的自動決策,要求企業就決策過程所涉及的邏輯提供「有意義的信息,以及按此處理數據的重要性和預計影響」。違法最高罰款額為企業全球營業額的4%,或2,000萬歐元,以較高者為準。

除了要符合法規,XAI還有其他作用。在德國,就有3名學者歸納出人工智能應具解釋能力的3個原因。

第一,他們認為盲目使用不能解釋的人工智能是不負責任的,在醫學領域基於「Do no harm(不傷害)」原則,避免人工智能的決定隱藏問題,為病人帶來風險,更不接受欠解釋的人工智能,故它的決策過程應是能夠解釋的,讓應用者可以驗證和判斷其決策是否合理。

第二,上述學者指出,要改善人工智能,便需要了解其缺點,當人能夠理解人工智能的任務和其結論的理據,可更容易找出演算法或數據中的偏見,以及分析出其弱點。

解釋能力與準確度 暫不可兼得

最後,學者們稱,人類處理數據的能力有限,但人工智能受上百萬的真實數據訓練,或可從數據中觀察到人類無法窺見的法則。而當我們使用XAI,就可嘗試從其「提煉」得出的知識,發掘新見解。

不過,以現今技術,人工智能的解釋能力與準確度仍是魚與熊掌,不可兼得。基於神經網絡模型、深度學習技術生成的人工智能,準確度在眾多技術之中最高,惟可解釋性最低;相反,基於決策樹模式生成的人工智能,可利用圖解說明整個決策過程,但準確度較低。

只是對用家來說,準確度與解釋能力,兩者均不可或缺。發展人工智能技術的外國學術界與科技企業,自然亦朝此方向努力。

美國國防高等研究計劃署2016年開展「XAI計劃」,旨在開發或改良機器學習的技術,生成可解釋自身原理、優缺點、和未來行為表現的XAI模型,同時保持高預測準確度,將來應用於國防和商業。有份參與「XAI計劃」的波士頓大學研究人員,正開發專為不明模型人工智能系統解釋的方法,可透過測試輸入的數據,製作成熱圖,找出當人工智能做決定時,哪些數據有貢獻。

研究人員正試圖找出方法,透過測試輸入的數據,製成圖表,從而找出當人工智能做決定時,哪些數據有貢獻。

「電子人」誕生 法律責任誰負?

需要進一步討論的是,假如技術成熟的XAI誕生,由其決策衍生的法律責任,應該由誰承擔?

歐洲議會2017年通過《歐盟機械人民事法律規則》,當中一條極富爭議性:「長遠為機械人創造法律地位,透過確立『電子人』身份,使最精密機械人承擔它們可能造成的任何損害。」

起草決議的歐洲議會議員Mady Delvaux解釋,由於精密的自主和自我學習機械人將有能力作決定,而無法追溯至人類代理人。她提出建立「電子人」法律地位,配合強制機械人保險計劃,是為了在發生事故卻無法確立人類的全部責任時,為受害者提供賠償。

然而,這項建議遭到285位人工智能及機械人、法律、醫學及倫理專家聯署譴責,指為自主、不可預測和自我學習的機械人創造「電子人」的法律地位,是「荒謬和不實際」,批評議會過於高估機械人的實際能力、膚淺理解其不可預測和自我學習的能力。

假如發生事故,如何界定人工智能系統、開發商和用家法律責任,未來仍需經歷長時間的討論,唯一可以肯定的是,開發具解釋能力人工智能的腳步不會停止,人工智能的「黑盒」將被打開。

人工智能在過去十年急速發展,漸漸滲入人類的日常生活,但旁人只能知道其決策結果,卻無從稽考其背後理據,故催生具解釋能力的人工智能。(資料圖片)

機構 : 智經研究中心

緊貼財經時事新聞分析,讚好hket Facebook 專版