人工智能「可解釋」 迎數碼轉型大趨勢

評論版 2020/07/09

分享:

近日香港的新冠肺炎確診數字似有回升迹象,但若然你在沒有病徵的情況下被確診「新冠狀肺炎病毒」,而醫生沒有向你解釋;又如若然你是一名學生,很努力地寫了一篇論文,而老師卻評為不及格,卻又沒有說出理據。遇到上述場景,作為當事人必然感到非常無奈,對醫生及老師失去信任,甚至會避免去再找他們診症或上課。

未能作合理解釋 用戶質疑效能

「人工智能」(Artificial Intelligence, AI)的任務是仿效人類的行為,並以「機器代人」為終極目標。醫療及教學是常見的「人工智能」應用,但不少現有的系統都犯了類似以上的錯誤,即未能為決定作出合理的解釋,使用戶質疑其效能。因此,「可解釋人工智能」(Explainable AI, XAI)成為近期計算機科學的熱門研究題目。

「深度學習」(Deep Learning, DL)是製造「人工智能」系統的關鍵技術。它利用神經網絡(Neural Network, NN)算法,對輸入數據進行表徵分析(Feature Analysis)及學習,從而構建出一個對應的信息處理模型。

「神經網絡」是一套「端對端」(End to End)的學習運算方法,換言之當輸入了數據,網絡便會自動學習,找出最佳的結果作為輸出。經過多年的研發,「神經網絡」的準確性非常之高,毋庸置疑,例如「神經網絡」應用於圖像識別的表現已超越人類。

兩大研究方向 有理可說清

盡管如此,它的自動學習算法以「黑箱式」作業,並不透明,這現象形成「神經網絡」以至「人工智能」在工商業應用中的不足之處。在數碼轉型的全球大趨勢之下,發展「可解釋人工智能」技術刻不容緩。

「可解釋人工智能」研究主要集中在兩大方向:

(1)「綜合解釋」(Global Explainability)技術,旨在解釋系統採用的某算法的原因,例如為甚麼選用「決策樹」(Decision Tree)去推算「新冠病毒」疫情的散播?及;

(2)問題特定(Problem Specific)的「局部解釋」(Local Explainability)技術,針對性地解釋某因素對決定的影響,例如年齡對「新冠病毒」感染的影響。

「可解釋」不單只是滿足用戶的需求,在「人工智能」產品化方面也很有必要性。「人工智能」建基於大數據,但「垃圾入垃圾出」(Garbage In Garbage Out),所以各地政府非常之重視數據治理(Data Governance)。

歐盟2016法規 解釋權是關鍵

就此,歐盟於2016年推出《一般資料保護規範》(General Data Protection Regulation, GDPR),當中「解釋權」(Rights to Explain)是一項重要法規。理論上,解釋權是對算法(例如「深度學習」)輸出進行解釋的權利。此類權利,主要是指要對重大影響個人(尤其是法律上或財務上)的決定進行解釋的個人權利。

例如,某人申請貸款卻被拒絕,他可能會要求解釋,這可能是因為其信貸紀錄不良。又例如,「人工智能」控制無人自動駕駛車造成嚴重事故,可能會導致大額賠償,保險公司便有權徹底了解自動車當時的判斷。

另外,在工程開發方面,一旦系統出錯,工程師必須理解漏洞的原因,才能有效去堵塞,及避免重蹈覆轍。

港宜建數據監管局 嚴管數據質量

最後,自創科局成立以來,香港積極推行「人工智能」經濟,讓企業廣泛地利用大數據去強化自己的業務。未來數據猶如資金,為確保企業能善用數據,筆者建議政府成立功能與「金管局」類似的「數據監管局」,嚴格地監管企業所使用數據的質量。就此「解釋權」將會是監管及審計(Audit)的準則,並且利用它制定「可解釋人工智能」的規範。

「可解釋人工智能」研究集中兩方向:「綜合解釋」及問題特定的「局部解釋」。(資料圖片)

撰文 : 黃錦輝 香港中文大學工程學院副院長(外務)、香港資訊科技聯會前會長

欄名 : 國是港事

緊貼財經時事新聞分析,讚好hket Facebook 專版