人工智能應用設限 保社會平衡發展

評論版 2021/06/02

分享:

根據國際調研機構IDC於去年第三季公布,人工智能(AI)市場於2020年的全球收入超過1,500億美元,按年比較增長約12.3%,並預計至2024年,全球AI市場收入會超過3,000億美元,5年複合年增長率(CAGR)為17.1%。然而,面對全球人工智能市場的增長,世界各地政府並沒有盲目地接受,有政府對AI應用對社會及人民所造成的負面影響憂心忡忡。

針對此問題,歐盟委員會早於2020年初發布《人工智能白皮書》,探討人工智能技術及應用在歐洲的優勢及可靠性,並就歐洲如何促進人工智能發展及解決相關風險進行研究。該委員會更於今年4月進一步推出人工智能監管草案(簡稱《草案》),建議全面禁止大規模監控,以及基於人工智能的社會信用系統。

實際上,這草案被媒體視為《人工智能白皮書》的法律延伸,目的在於為具可靠性人工智能的實踐提供牢固的法律框架。本文概論《草案》所提出的原則,以供本地科技創新業界參考。

人臉識別 禁大規模無差別應用

「人臉識別」技術在全球大行其道,尤其是在保安場境中的軍事和民事應用,更是如雨後春荀。由於「人臉識別」存在侵犯個人隱私的風險,不少政府對於其廣泛應用有保留,例如美國三藩市政府已全面禁止該技術在公開場合使用,而香港政府則因為民眾團體反對,需要重新考慮多項基於「人臉識別」的保安應用方案。

不過,歐盟委員會成員並非一面倒全面禁止使用此技術,因此《草案》建議,在歐盟各地推動全面禁止無差別的大規模應用,但在以下3種特定情況下,可獲寬鬆處理:1、尋找失蹤兒童;2、解除恐怖襲擊的威脅;3、在法律允許範圍內追查特定的刑事犯罪嫌疑人。廣義而言,「人臉識別」是生物識別的一種,因此《草案》的建議也適用於如指模、掌紋、虹膜等個人生物特徵。

社會信用系統 勢損公平公正原則

歐盟委員會認為,利用人工智能根據社會行為或人格等特徵,進行用戶信用評估,會造成不可預見的後果,導致個人或特定群體的權益受到損害。現實中不同的社會文化,會產生不同的算法(判斷)偏見,而算法偏見將直接對信用評估產生影響,如此社會信用系統必然會侵蝕社會公平公正的基本原則,因此,《草案》提出禁止落實相關的人工智能應用。

在這方面的典型例子,首當其衝的是數碼化的執法和法院系統。《草案》指出,執法當局使用人工智能技術,可能會導致權力嚴重失衡,侵犯個人基本權益。如果訓練這些算法的數據質量不高,或算法的準確性及穩健性未能達到執法要求,那那麼程序性正義、公平審判權、辯護權及無罪推定的權利就會受到嚴重衝擊。

歐盟委員會尤其將個人風險評估、測謊儀、辨別情緒等應用歸為高風險,而在刑事訴訟中,基於人工智能技術對證據進行可靠性評估,對嫌疑人的性格特徵進行判斷,或基於過去的犯罪行為進行推定等行為,也被歸為高風險應用範圍。

總言之,雖然《草案》沒有明確地提出落實細節,但歐盟委員會在這方面的工作是具前瞻性的,是當今首個建議以法律手段禁止人工智能「操控」人類思想的機構。事實上,歐盟在科技立法工作上不斷地追求體制創新,《草案》是繼《一般數據保護條例》(GDPR)之後再一次領先全球之舉,值得香港政府為加強創新及科技發展進行「檢視現行法例和法規」過程中借鏡。

根據國際調研機構IDC於去年第三季公布,人工智能(AI)市場於2020年的全球收入超過1,500億美元,按年比較增長約12.3%。(中新社資料圖片)

撰文 : 黃錦輝 香港中文大學工程學院副院長(外務)、香港資訊科技聯會榮譽會長

欄名 : 評論

緊貼財經時事新聞分析,讚好hket Facebook 專版