汽車人工智能 誰是最終贏家

評論‧世情 2021/10/30

分享:

製造一輛能夠在普通道路上完全自主行駛的汽車,一直是人工智能(AI)最宏偉的目標之一。直至目前為止,無論是名噪一時的圍棋軟件AlphaGo、同由DeepMind開發的癌症診斷系統、以及能夠理解和回答自然語言的AI等,都只限於在屏幕上與人類互動。

然而,汽車AI的發展標誌着機器與現實世界中的眾多物理因素深度交涉,甚至將乘客和路人的性命交託到無人駕駛汽車,因此其意義非凡,需要跨越的難關也更高。

如果讀者曾帶初生子女使用衞生署的母嬰健康院服務,他們會派發一本小冊子,詳細教導怎樣「湊B」,裏面描述了一名7個月大的嬰兒兩項重要的認知發展:第一是嬰兒開始掌握「因果關絛」,例如他發現搖鈴便會發出聲音;第二是嬰兒開始有「物件恒存」的概念,例如父母把玩具藏在一塊布下面,從前他以為玩具消失了,現在他明白眼睛看不見不等於不存在,並會嘗試尋找。

現今汽車AI 缺兩大認知概念

當前發展中的汽車AI,卻做不到這兩點。它透過從大量數據建立模式來工作,但仍然無法像一個真人去理解現實世界。人類駕駛者一旦看見鄰車的司機滿身酒氣、精神散煥,通常會機警地避開,AI卻不懂得對現實處境進行聯想;同樣道理,如果無人車在慢綫,一輛在中綫的貨櫃車暫時遮住了另一輛在快綫的電單車,AI會以為電單車不復存在。

以上例子揭示了汽車AI仍然無法應付千變萬化的路面情況。現代AI的理念建基於機器學習,電腦從訓練數據中提取有關駕駛的一般規則,理論而言,數據愈多,系統性能愈好。無人駕駛汽車由此學會了遵守交通標誌、讓路予爬頭車輛、抵埗後煞車等,但它不會了解為甚麼要如此做,也無法應對訓練數據中罕見的異常情況,比如突然衝出馬路的小孩或動物。

一項研究指出,當交通標誌被雪部分覆蓋時,汽車AI便會誤解標誌的意思。2016年,一輛Tesla Model S全速撞入一輛貨櫃車的底部,司機當場喪生。Tesla的報告指,貨櫃車的白色車身映襯在明亮的天空中,系統純綷根據拍攝的影像,誤認為貨櫃車架是一道「橋」,其下方有空間可以通過。

應對AI認知缺陷 科技界兩派別

現時科技界應對汽車AI認知缺陷的方法,主要分為兩派,誰能率先解決問題,便可佔據無人駕駛汽車市場的主導地位,因此至關重要。第一派以Alphabet旗下的Waymo為主,他們相信用更多的數據,訓練AI的深度學習模型,便可覆蓋更多特殊情況。

人工智慧的歷史表明,隨着硬體的進步和數據的擴展,AI的解難能力會不斷提升;問題是,我們永遠不知道有多少種特殊情況存在。由於時間是無限伸延的,因此特殊情況的數目實際上是無限的。

第二派以史丹福大學、麻省理工學院和IBM為主。他們研究所謂「混合人工智能系統」,即在機器學習以外強調邏輯、歸納和推理。他們通過編程,直接讓汽車AI掌握物理和抽象概念,例如這種「推理引擎」可預測上述在快綫被暫時遮擋的電單車,將於何時何地再次出現,並在必要時採取閃避措施。

它還會告訴你為甚麼要煞車,因為它估計前方是一輛白色貨櫃車,而不太可能是白色天空的一部分;相反,機器學習從根本上說是一種統計方法,它不會回答「為甚麼」。

人類理解方式複雜 難植入電腦

「混合人工智能系統」的理念在於,就算用數以億計的行駛里數作為數據訓練一輛無人車,你仍然無法確定是否已涵蓋所有場景。異常情況總是層出不窮,而且一次就可能足以致命,所以「混合人工智能系統」主張生物大腦的學習方法,例如人類嬰兒可以依靠豐富的物理環境,諸如聲音、氣味、視覺等提取抽象概念,再利用它們在新的場景中作出推斷,而毋須用大量場境不斷演練。

總括而言,筆者猜想第一派仍然會勝出這場競賽,原因是不管多麼深思熟慮,建構一套邏輯應付複雜的現實世界,往往非常困難,試圖將人類的理解方式建構到電腦中,亦很少行得通。

DeepMind的人工智能大師Richard Sutten撰寫了一篇名為《The Bitter Lesson》的文章,回顧過去70年AI的發展史,他說最深刻的教訓便是:「使用一般運算用方法始終是最有效的,究其原因是摩爾定律令運算成本持續下降……人類思想的實際內容極度複雜,不應把它置入機器。」有興趣的讀者可一看。

當前發展中的汽車AI,缺乏兩大認知概念,誰能率先解決問題,便可佔據主導地位。(新華社資料圖片)

撰文 : 羅浩宇 「創科未來」總幹事

欄名 : 創科未來

緊貼財經時事新聞分析,讚好hket Facebook 專版