人工智能侵私隱? 規管偏幫科企?

評論版 2019/07/03

分享:

十多年前,假如有人宣稱人工智能已融入普羅大眾的日常生活,其他人可能會以為自己在觀看科幻電影。但今時今日,當政府也準備為網站引入人工智能和聊天機械人功能,金融機構亦將人工智能技術用於協助客戶擬定貸款償還方案,降低壞帳率,我們不得不懷疑,科幻電影的編劇中,是否潛藏了一些從未來穿越到現代的非法入境者?

人工智能 或存偏見損自主

如果你是懷疑這些不速之客存在的一員,甚至準備向執法機構舉報,你大概會更擔憂日後人工智能無處不在,因為這項被寄望作出客觀判斷的技術,現時仍未能完全做到大公無私,還可能助長偏見。

舉例,科技企業亞馬遜一項協助招聘的人工智能技術,便被指會對女性應徵者作較低評價,存在性別偏見。除了偏見,人工智能技術也有可能被用作侵犯私隱的工具,例如從蛛絲馬迹中推算出個人資訊,或是用來辨識身份,損害人們的自主性。

當協助人類作出決定的技術存在各種潛在缺陷,除了改善技術,如何妥善規管這項技術,也逐漸備受關注。部分科技企業就透過自訂原則及設立監督機制,預防人工智能技術的負面影響。

解決方向1:科企自我監督

其中Google去年表示,在研究、開發產品及作商業決定時,會遵循七項原則,包括人工智能須有利於社會、避免產生或助長不平等、設計安全,以及對人類負責等。今年,Google進一步宣布設立委員會,委任人工智能、公共政策、數碼道德等領域的教授、專家及研究人員為成員,在人臉識別及機器學習內的公平性等範疇,向公司提供意見。

不過,也有聲音質疑,這類被統稱為人工智能倫理委員會的組織,究竟能帶來多少實質改變?

原因之一,是委員會成員的人選存在爭議。專門提供執法技術的科技公司Axon,雖然同樣有設立外部倫理委員會,但有多個公民組織向委員會發信,指委員會應同時邀請及諮詢受Axon技術所影響的人士,包括曾被囚禁的人,以及曾遭執法人員以暴力對待的倖存者,否則委員會欠缺認受性。Google的委員會更因人選爭議而被解散。

除人選問題,倫理委員會究竟有多少「牙力」約束科技公司,也成疑問。若委員會認為某項產品不應推出市面,相關公司是否必須聽從?還是可以「意見接受,一切照舊」?外國有關注團體就認為,大部分科技公司訂立的倫理原則,均欠缺具結構性的框架支持,並沒有約束力,委員會也因欠缺力量,無法令公司改變。

方向2:由國際組織訂原則

有人對科網公司自我約束的成效存疑,那麼政府介入又是否可行?這方面,各國際組織的取態,或許可視為各地監管機構的風向儀。

以歐洲聯盟委員會(歐盟委員會)為例,其專家小組在今年4月發表「可信賴人工智能」(Trustworthy AI)的倫理指引,建議利用評核清單審視人工智能系統,能否滿足專家小組提出的七大要求,例如多元、非歧視及公平。

另一方面,經濟合作與發展組織(經合組織)的成員國,亦在5月22日採納了經合組織的人工智能原則(經合原則)。經合原則就人工智能的公平性、透明度、安全性、問責性等問題提出建議。雖然經合原則並無法律約束力,但由於經合組織的建議過去曾多次成為國際標準,故向來有高度影響力。

外行管內行 指引短視隱晦

國際組織的建議有影響力是一回事,其建議是否有效,卻備受部分人士質疑,主要是擔心這些規則「牙力」有限,而且深受科技企業影響。其中,歐盟委員會的專家小組成員之一、德國約翰尼斯.古騰堡-美茵茲大學哲學教授Thomas Metzinger指出,專家組52名成員中,只有4名是倫理學家,其他人士來自政治、大學、公民社會和科技業界,又批評指引短視及故意隱晦,並且是「弱化」版本。

不難見到,無論是業界自我約束,還是國際組織訂立的指引,現時都被部分人視作偏幫科技企業。當中的批評聲音,固然需要處理;但在現實層面,在規管人工智能的討論中,要減少科技企業的影響力,並不容易,因為被規管對象--科技企業--對人工智能的認識很可能遠高於規管者。

在香港,如何在善用人工智能系統之餘,又能保障公眾利益,已引起政府關注。個人資料私隱專員公署認為,從個人資料獲益的中小企,應摒棄只達最低監管要求的想法,而應恪守更高的道德標準,在遵守相關法例和監管要求的同時,亦符合持份者的期望。

一眾企業能否達到以上要求,不用等待科幻電影提供綫索,我們即管拭目以待。

人工智能發展已融入普羅大眾生活之中,究竟如何在善用人工智能之餘,又能保障公眾利益?(法新社資料圖片)

機構 : 智經研究中心

緊貼財經時事新聞分析,讚好hket Facebook 專版