2025年1月2日 星期四

通用AI的幻覺(權利與進步)

科技進步並不意味著所有人都能共蒙其利,我們如果繼續對科技抱持盲目樂觀的態度,聽任少數人透過侵害多數人權益而致富,終將侵蝕得來不易的自由、民主與生活方式。我們必須重新檢視科技變革為人類社會帶來的利與弊,探索如何創造一個兼顧進步與平等的未來。本篇只介紹「通用AI的幻覺」。

目前AI的發展路線是以圖靈的主張為圭臬,追求的是通用、達到人類水準的智能。儘管GPT-3與推薦系統已有長足的進展,但就目前由人類處理的許多決策而言,要想憑著目前的AI路線來破解人類智能,甚至光是達到極高的水準的生產效率,都還言之過早。

在人類認知上與社交及情境層面有關的任務,對於機器智能來說仍然是巨大的挑戰。如果我們仔細看看人們目前現有的成就,就會發現把人類擅長的事情全部交給機器處理會有多困難。連GPT-3這項技術也不具備人類的社交或情境智能元素,因此執行任務時,GPT-3無法判斷情境的脈絡,或從中推論因果關係。

事實上,從這些討論還是讓我們看到一個更大的問題:統計方法雖然能夠辨識模式、做出預測,但掌握不到許多人類技能的本質。首先,由於所謂確切的情境難以定義與編碼,也就很難應對情境的資訊。

統計方法長期以來還有另一項問題,稱為「過度配適」,一般指的是為了想要精確呈現實證上的關係,結果在統計過程參考太多的參數。令人擔心的地方在於,一旦出現過度配適,統計模型會把資料當中其實無關的部分也納入計算,於是所做的預測或結論都出現失準。

想要解釋這個問題,就必須先針對最後應用的目標,了解有哪些不相關、不是長久存在的特徵,從中對過度配適的問題進行更廣泛的認識。讓我們以「區分狼與哈士奇」這項任務為例。

例如,如果背景是都市,像是有平整的草皮、消防栓,AI就會判斷為哈士奇;如果背景是雪山那樣的自然情境,AI則會判斷是狼。但這兩種配對方式根本是不相關的特徵,原因有二:

  1. 人類不是用這樣的背景因素來定義或分辨動物。
  2. 隨著氣候暖化,狼的棲地可能會改變,因此程式需要能在不同環境中辨別狼隻。

換言之,正因為「背景」並非狼的決定性特徵,所以一旦周遭世界或環境改變,這種判斷方式就會導致錯誤的預測。對於機器智能來說,過度配適特別麻煩,因為那會讓人誤以為機器的表現十分出色,但其實錯誤百出。

舉例來說,雖然「溫度」與「各國每人平均GDP」這兩個變數在統計上相關,但並不代表氣候會對經濟發展造成巨大影響,原因可能只是在某段特定的歷史中,歐洲殖民主義對於不同氣候的不同地區有了不同的影響。但如果沒有一套正確的理論,就很容易誤把「因果」與「相關」混為一談,而機器學習就常常出現這種情況。

在一種情況下,演算法過度配適的影響會更為嚴重,那就是在社交情境中,人類會不斷對新資訊做出回應。在這種時候,整個需要判斷的情境會不斷因為人的反應而改變,甚至這種改變正是因為有人參考了演算法的資訊。

例如,由於太多人被演算法鼓勵去申請某個職缺,會讓申請應徵的人數超過職缺數目,那麼這個職缺就不再是個理想的選擇了。要是機器智能無法從這種情境與社交層面來了解人類的認知,掌握人類行為會如何動態調整,就會不斷碰上過度配適的問題。

AI缺少社交智能還存在著其他隱憂,雖然AI能夠運用大批使用者的資料數據,以此了解資料中的社交面向,但目前仍無法善加利用人類對事物的理解,是靠著人與人之間的選擇性模仿、溝通交流與爭論而來。所以,許多自動化的嘗試似乎還讓整體靈活度下降。

反之,如果是一名訓練有素的員工,在環境變化時,常常能運用從同事那裡學到的技能與觀點,迅速應對、反應靈活。

話雖如此,我們並不排除在不久的將來,可能出現一種全新的方法解決「通用AI」的問題,但到目前為止,還沒有這種跡象,也尚未看到有人願意投資、大舉投入研究這個領域。目前,產業重點依然只在於廣泛收集資料數據,以及靠著機器學習技術,將一些狹益的任務自動化。

這種商業策略造成的經濟問題很明顯:當人類並不如有時候想像的那麼無用、智慧機器也不如想像的那麼聰明,我們就只能得到「差不多湊合著用的自動化」,代價則是讓一大票勞工失業,卻無法實現之前的承諾,使生產力收益大幅提升。

就連對於企業本身,這樣的自動化也不見得能提供什麼好處。有些企業之所以採用AI,有可能只是在跟風。像是前AI科學家艾伯托.羅梅洛所說:「AI擁有強大的行銷威力,讓許多企業根本沒搞清楚原因就開始使用。人人都只想要搭上這股AI潮流。」

結語

雖然目前市場對AI的看好度不變,但若將來出現雜音的話,最有可能的就是此篇文章提到的。

我也一再提醒學員,AI的工業革命才剛剛開始,像有些漲幅過大的AI相關概念股,還是要有風險意識,要買可以等股市發生大幅回檔再買。


有關書籍的介紹,請參考:作者、出版社、內容簡介

更多的理財書目,請參考:汪汪書架的書–理財書籍