2021年11月30日 10:20 環球科學 撰文 | 塞薩爾·伊達爾戈(César A。 Hidalgo) 翻譯 | 魏書豪 審校 | 孫琳鈺、clefable 在人工智能(AI)技術還沒火之前,計算機科學家亨利·利伯曼(Henry Lieberman)曾邀請我去麻省理工學院參觀他的實驗室。 亨利癡迷於「AI缺乏常識」這個觀點。 為此,他與同事凱瑟琳·豪沃希(Catherine Havasi)和羅賓·斯皮爾(Robyn Speer)一直在網絡上收集常識性內容,來分析人類對常識的理解和推理過程,期望找到增強AI通識能力的方法。 人們習慣評判好壞 諸如「水(和雨都)是濕的」或「愛(和恨都)是一種感覺」之類的常識,對人類來說顯而易見,但機器卻難以掌握。 這也是人工智能的一個難點,學者們仍在試圖理解,為什麼理解常識對機器而言如此困難。 那天,亨利激動地向我展示了一張圖表。 他們通過主成分分析(PCA)的方法,將收集的常識性詞語集進行多維度的分析和壓縮,將最終得出兩個最能差異化區分所有詞語的維度,設置為了橫軸和縱軸,「愛」、「水」和「感覺」之類的詞就散布在這張圖上。  ; 亨利說:「用PCA來分析常識性的認知,就像是用數學方法試圖回答一個古老的哲學問題:人類的知識到底是關於什麼的?」我問他這些軸都代表什麼含義,賣完關子後,亨利揭曉了答案:最能區分常識性概念的第一個維度,是好與壞。 事後看來,這個規律似乎顯而易見。 我們每天都會在認知事物和交流溝通中進行無數的好壞評判。 我們說天氣有「好」和「壞」。 我們要尋找更「好」的工作。 我們喜歡「好」的音樂,不喝「壞」的酒。 然而,人們尚能理性地看待某人襪子上有個洞無傷大雅,跟他的道德無關,但我們卻常常在語言中忍不住濫用道德批判。 亨利的圖表證明了人類語言中普遍存在著好壞評判,這種道德評判也隱含在常識性知識的理解和推理中。 AI犯錯,難以原諒? 如今,AI和開發它的人會遭受很多批評。 人們憤怒往往是有道理的。 AI曾經陷入多起科技醜聞,比如給照片分類時出錯,面部識別出錯導致無辜的人被捕,或者在評估再次犯罪時具有明顯的偏見,以及翻譯中存在與性別相關的刻板語句。 在大多數情況下,AI界的研究人員都會傾聽群眾的意見。 時至今日,研究人員已經很清楚AI的這些問題,並在積極努力地解決。 隨著激烈的爭論漸漸過去,值得思考的不僅是AI是「好」還是「壞」,還有批判AI失誤時人們展現出來的道德。 畢竟,AI倫理也是人類制定的,我們才能做出判斷。 在過去的一段時間裏,我和我的團隊一起做了幾十個實驗。 在這些,我們招募了幾千名受試者,要求他們在實驗中對人類和AI的行為做出反應。 這些實驗包括一些場景,如人類或機器使用挖掘機不小心挖開了一個墳墓,或者監視著海嘯預警系統,卻未能及時向沿海城鎮發出警報。 這樣的比較使我們能夠超越單純由人評判AI的局限,去觀察人們在判斷機器和人類行為時有什麼區別。 這種差異看似微妙,但它迫使我們用一個更現實的參照標准來評判機器行為。 過去,我們傾向於用一個完美的標准來衡量AI,而沒有對比過如果人類發生同樣行為,造成相同的後果後,大家是如何反應的。 那麼,這些實驗告訴了我們什麼? 論跡不論心 早期的數據已經清晰地表明,人類對人和機器行為的反應並不相同。 例如,在發生意外時,人們對AI的寬容度要低於人類,尤其是當AI造成實質性傷害時。 基於幾千個數據點,我們可以更深入地研究這些問題,通過建立一個統計模型來解釋人們是如何評判人類和機器的。 該模型成功預測了人們如何根據造成的傷害以及錯誤方的「故意程度」打分。 令我們驚訝的是,該模型表明,人們對人類的道德批判並不比對AI更輕,只不過我們使用了不同類型的道德要求來評判二者。 下面的這張圖總結了這一發現,藍色和紅色平面分別顯示了人們如何評判其他人和機器的行為(平均值)。 你可以清楚地看到,平面是不平行的,紅色和藍色平面之間存在偏移。 這是因為,在評判機器時,人們似乎更關心事件的結果,即事件帶來的傷害程度。 這就是為什麼紅色平面幾乎完全沿著傷害維度增長的原因。 但是當人們評判他人時,我們在藍色平面發現了一個曲率。 這一次,增長是沿著傷害和意圖(故意程度)平面的對角線上升的。 這就解釋了為什麼在發生意外的情況下,人們對機器的評判更加嚴厲;人們采用結果主義的方法來評判機器,意圖無關緊要,但評判人類時則不是這樣。 這個簡單的模型讓我們得出了一個有趣的結論,人們會基於一個經驗原則來評判機器與人類的行為,簡而言之就是:「人們根據動機評判人類,根據結果評判機器。 」 常見的「雙標」 但這些實驗對我們認識人們的道德直覺有什麼啟示呢?首先,這些實驗告訴我們,人們的道德理念並非固定不變。 我們可能會告訴自己,我們是有原則的人,但事實是,我們的判斷常會根據判斷的人或事物而發生變化(簡稱雙標)。 這種搖擺不定的道德標准,並不僅局限於評判人類和機器行為時。 我們在道德上搖擺不定,或並非因為偏袒某一群體那麼簡單。 如果人們只支持人類而不是機器,那麼紅色和藍色平面就會平行,但結果卻並非如此。 這意味著人們不是只喜歡人類而不喜歡機器,只是我們對人和機器的判斷不同。 相比於用結果主義道德評判機器,我們對人類同胞有著講道義或更康德式的道德評判標准。 但最重要的一點可能是,我們能通過訓練機器的技術來了解人類的道德。 在我的研究中,我們通過建立一個簡單的,多維度的道德評判模型來了解人類道德的好惡。 在亨利等人的研究中,他們通過流行的「降維技術」分析和了解了人類常識中的道德。 在告訴我第一個維度是「好與壞」之後,亨利讓我猜第二個軸代表了什麼。 「易與難,」他說,「簡單地說,所有的常識知識都是關於什麼是‘好’的或者‘壞’的,以及什麼是‘容易’的或‘困難’的。 其餘的都不重要。 」 《為什麼人類可以犯錯,但機器不行?》完,請繼續朗讀精采文章。 喜歡 科學報 cn-n.net,請記得按讚、收藏及分享。
音調
速度
音量
語言
為什麼人類可以犯錯,但機器不行?
精確朗讀模式適合大多數瀏覽器,也相容於桌上型與行動裝置。
不過,使用Chorme瀏覽器仍存在一些問題,不建議使用Chorme瀏覽器進行精確朗讀。