AI應用須維護人權 秉持初衷

評論‧世情 2021/07/06

分享:

智能科技普及,人們對人工智能(AI)已不感陌生。今年是AI確立為學科的65周年,人類在過去的13個5年,將愈來愈多的決策權交給AI,惟近年有例子顯示,一些政府應用AI時,對弱勢社群的生活構成災難。展望AI第14個5年發展,當政府和公營機構廣泛採用AI自主決策時,應謹守哪些原則?

福利系統數碼化 省成本增效率

現時,世界有多個國家已應用各類數碼科技,為福利系統作數碼轉型。聯合國極端貧困與人權問題特別報告員Philip Alston於2019年發表報告,指出這不但節省大量成本,還可以減少人手、提高效率和減少欺詐。

一些涉及公共福利的自動化決策系統,是靠AI及其背後的演算法分析大量數據,取代原本由人類所做的決定。不少政府引入的數碼福利系統,其設計強調具有配對不同來源的數據之能力,以打擊福利申請者的欺騙和違規行為。

英國就業及退休保障部自2016年起,大舉投資及聘用IT員工,開發福利機械人、深度學習和智能自動化系統,以處理日常工作。該部門數年前推出自家AI演算法,可以快速查閱數十億項數據,檢測欺詐者常用的偽造身份技術,例如申請尋找相同的電話號碼,以追蹤犯罪集團大規模詐騙政府福利的個案。

演算法或侵人權 弱勢社群陷困

惟Alston觀察到,不少數碼福利系統的決策不經人手檢視,交由機械人、演算法決定受助者的命運,過程可能侵犯弱勢社群的人權,最終使他們陷入災難性的困境,包括以各種方式全天候監控受助人,且不受限制地作資料查證,以揭露受助人極為輕微的違規行為,並施以嚴厲懲罰等。

美國巴爾的摩(Baltimore)民事律師兼當地大學教授Michele Gilman,經常代表弱勢社群與政府部門、信貸機構、房東交手。她接受外媒訪問時指出,近年愈來愈多涉及居民生活基本需要的爭議,由演算法所引發,政府機構採用的演算法,會影響民眾獲得醫療保健、失業和育兒支援服務等公共福利的機會;而演算法為弱勢社群帶來的,可能是連場噩夢。

數據遺漏不準確 AI易誤判

Gilman的憂慮,有實例佐證。美國密歇根州政府採用的失業保險欺詐自動檢測系統,於2013至2015年間,錯誤地對至少2萬名當地居民提出欺詐指控。在沒有人為介入下,州政府根據系統要求居民償還受助款項,以及巨額的利息和罰款。為了向居民追討欠款,州政府扣押薪水、向其銀行帳戶直接徵收並截取其退稅,使他們一下子陷入經濟困局,導致無家可歸、離婚、拖低信貸評分、破產甚至有人自殺。後來經過查證,系統的錯誤率高達93%,惟其所造成的傷害已經無法挽回。

AI決策系統出錯可以有不同原因,在軟件開發人員將複雜的法規轉化為程式編碼時,可能產生錯誤;另外,自動決策系統參考的大量數據,無可避免地會有遺漏和不準確,亦使系統容易誤判;而設計AI系統和塑造數碼福利國家的人,絕大多數是白人、男性、富裕以及來自北半球,亦使演算法本身可能潛藏社會偏見。

某些國家已對AI自主決策的問題有所警覺,例如歐盟早前便提出新法案,將AI不同用途劃分為不可接受風險、高風險、有限風險及最低風險,從而建立高風險應用清單,例如考試評分、信貸審批,並就其開發和使用,建立新標準及施以嚴厲監管,像是在系統投入市場前,須為系統提供高質素的數據集,盡力減少風險和歧視結果,以及制定適當的人為監督措施等。

確立應用原則 消除偏見

在香港,不少人都期望政府善用智能科技協助施政。事實上,政府已開始利用創新科技應對城市管理的挑戰,以及改善市民生活,可以預視在不久的將來,本港一些公共服務將會應用到AI自動化決策技術,如考評局已透露有意採用AI評卷。

為免AI傷害弱勢社群,政府部署採用AI作決策時,應步步謹慎並確立原則。Alston在報告中指出,為了消除偏見,並確保充分考慮人權因素,應仔細審查數碼福利系統的數據創建、審計及維護背後的做法。數碼福利系統必須具有法律依據、維護人的權利和尊嚴、一視同仁且透明。政府亦需要對外公開和解釋運用演算法的福利政策,讓公眾尤其是直接受福利制度影響的人,能夠理解其運作和評估其影響。

AI自主決策將會愈見普及,但再精密的AI系統,均有可能出錯,公私營機構考慮應用時,應保持人文關懷,從人的需求出發,維護和尊重人權,使用者須適時酌情處理AI的決策,秉持造福人群的初衷,否則AI將變得毫無意義。

再精密的AI系統,均有可能出錯,公私營機構考慮應用時,應維護和尊重人權,秉持造福人群的初衷。(新華社資料圖片)

欄名 : 評論

機構 : 智經研究中心

緊貼財經時事新聞分析,讚好hket Facebook 專版