收藏本站

電腦請使用 Ctrl + D 加入最愛
手機請使用 收藏
關閉

科學報 科學文摘 探索

為什麼人類可以犯錯,但機器不行?


字體大小:
更新日期:2022108
文章欄目:
文章標籤:           
 

2021年11月30日 10:20

環球科學

  撰文 | 塞薩爾·伊達爾戈(César A。
Hidalgo)

  翻譯 | 魏書豪

  審校 | 孫琳鈺、clefable

  在人工智能(AI)技術還沒火之前,計算機科學家亨利·利伯曼(Henry Lieberman)曾邀請我去麻省理工學院參觀他的實驗室。亨利癡迷於「AI缺乏常識」這個觀點。為此,他與同事凱瑟琳·豪沃希(Catherine Havasi)和羅賓·斯皮爾(Robyn Speer)一直在網絡上收集常識性內容,來分析人類對常識的理解和推理過程,期望找到增強AI通識能力的方法。

  人們習慣評判好壞

  諸如「水(和雨都)是濕的」或「愛(和恨都)是一種感覺」之類的常識,對人類來說顯而易見,但機器卻難以掌握。這也是人工智能的一個難點,學者們仍在試圖理解,為什麼理解常識對機器而言如此困難。那天,亨利激動地向我展示了一張圖表。他們通過主成分分析(PCA)的方法,將收集的常識性詞語集進行多維度的分析和壓縮,將最終得出兩個最能差異化區分所有詞語的維度,設置為了橫軸和縱軸,「愛」、「水」和「感覺」之類的詞就散布在這張圖上。 ;

  亨利說:「用PCA來分析常識性的認知,就像是用數學方法試圖回答一個古老的哲學問題:人類的知識到底是關於什麼的?」我問他這些軸都代表什麼含義,賣完關子後,亨利揭曉了答案:最能區分常識性概念的第一個維度,是好與壞。

amocity
amocity

  


  事後看來,這個規律似乎顯而易見。我們每天都會在認知事物和交流溝通中進行無數的好壞評判。我們說天氣有「好」和「壞」。我們要尋找更「好」的工作。我們喜歡「好」的音樂,不喝「壞」的酒。然而,人們尚能理性地看待某人襪子上有個洞無傷大雅,跟他的道德無關,但我們卻常常在語言中忍不住濫用道德批判。亨利的圖表證明了人類語言中普遍存在著好壞評判,這種道德評判也隱含在常識性知識的理解和推理中。

  AI犯錯,難以原諒?

  如今,AI和開發它的人會遭受很多批評。人們憤怒往往是有道理的。AI曾經陷入多起科技醜聞,比如給照片分類時出錯,面部識別出錯導致無辜的人被捕,或者在評估再次犯罪時具有明顯的偏見,以及翻譯中存在與性別相關的刻板語句。在大多數情況下,AI界的研究人員都會傾聽群眾的意見。時至今日,研究人員已經很清楚AI的這些問題,並在積極努力地解決。

  隨著激烈的爭論漸漸過去,值得思考的不僅是AI是「好」還是「壞」,還有批判AI失誤時人們展現出來的道德。畢竟,AI倫理也是人類制定的,我們才能做出判斷。

  在過去的一段時間裏,我和我的團隊一起做了幾十個實驗。在這些,我們招募了幾千名受試者,要求他們在實驗中對人類和AI的行為做出反應。這些實驗包括一些場景,如人類或機器使用挖掘機不小心挖開了一個墳墓,或者監視著海嘯預警系統,卻未能及時向沿海城鎮發出警報。這樣的比較使我們能夠超越單純由人評判AI的局限,去觀察人們在判斷機器和人類行為時有什麼區別。

  這種差異看似微妙,但它迫使我們用一個更現實的參照標准來評判機器行為。過去,我們傾向於用一個完美的標准來衡量AI,而沒有對比過如果人類發生同樣行為,造成相同的後果後,大家是如何反應的。那麼,這些實驗告訴了我們什麼?

  論跡不論心

  早期的數據已經清晰地表明,人類對人和機器行為的反應並不相同。例如,在發生意外時,人們對AI的寬容度要低於人類,尤其是當AI造成實質性傷害時。基於幾千個數據點,我們可以更深入地研究這些問題,通過建立一個統計模型來解釋人們是如何評判人類和機器的。該模型成功預測了人們如何根據造成的傷害以及錯誤方的「故意程度」打分。

  令我們驚訝的是,該模型表明,人們對人類的道德批判並不比對AI更輕,只不過我們使用了不同類型的道德要求來評判二者。下面的這張圖總結了這一發現,藍色和紅色平面分別顯示了人們如何評判其他人和機器的行為(平均值)。

amocity
amocity

  


  你可以清楚地看到,平面是不平行的,紅色和藍色平面之間存在偏移。這是因為,在評判機器時,人們似乎更關心事件的結果,即事件帶來的傷害程度。這就是為什麼紅色平面幾乎完全沿著傷害維度增長的原因。但是當人們評判他人時,我們在藍色平面發現了一個曲率。這一次,增長是沿著傷害和意圖(故意程度)平面的對角線上升的。這就解釋了為什麼在發生意外的情況下,人們對機器的評判更加嚴厲;人們采用結果主義的方法來評判機器,意圖無關緊要,但評判人類時則不是這樣。

  這個簡單的模型讓我們得出了一個有趣的結論,人們會基於一個經驗原則來評判機器與人類的行為,簡而言之就是:「人們根據動機評判人類,根據結果評判機器。」

  常見的「雙標」

  但這些實驗對我們認識人們的道德直覺有什麼啟示呢?首先,這些實驗告訴我們,人們的道德理念並非固定不變。我們可能會告訴自己,我們是有原則的人,但事實是,我們的判斷常會根據判斷的人或事物而發生變化(簡稱雙標)。這種搖擺不定的道德標准,並不僅局限於評判人類和機器行為時。

  我們在道德上搖擺不定,或並非因為偏袒某一群體那麼簡單。如果人們只支持人類而不是機器,那麼紅色和藍色平面就會平行,但結果卻並非如此。這意味著人們不是只喜歡人類而不喜歡機器,只是我們對人和機器的判斷不同。相比於用結果主義道德評判機器,我們對人類同胞有著講道義或更康德式的道德評判標准。

  但最重要的一點可能是,我們能通過訓練機器的技術來了解人類的道德。在我的研究中,我們通過建立一個簡單的,多維度的道德評判模型來了解人類道德的好惡。在亨利等人的研究中,他們通過流行的「降維技術」分析和了解了人類常識中的道德。

  在告訴我第一個維度是「好與壞」之後,亨利讓我猜第二個軸代表了什麼。「易與難,」他說,「簡單地說,所有的常識知識都是關於什麼是‘好’的或者‘壞’的,以及什麼是‘容易’的或‘困難’的。其餘的都不重要。」

延伸閱讀
撩世界