(網上圖片)

虎嗅注:本文原載於紐約時報,作者:Benjamin H. Bratton,編譯者有曾輝、Janet Zhao、牟文龍。

人們對於人工智能這個熱點話題仍說法各異。

像史蒂芬·霍金、伊隆·馬斯克、比爾·蓋茨這樣的專家,最近越發看重它的潛力和威脅。在讀完尼克·博斯特倫《超級人工智能》一書後,馬斯克大聲質問,「人工智能是否是我們現在最大的威脅」。

 

一種成熟的人工智能不一定是仿人的智能

我們對於人工智能流行的說法被人類倫理所扭曲了。人們對於人工智能的分歧不僅僅體現在它的威脅上,對於強人工智能是否會出現也有不同的看法。一些人認為具備人類相當水平的「強人工智能」(hard A.I.)永遠不可能存在,但也有人認為這種趨勢將勢不可擋。但在很多情況下,這些爭論可能偏離了真正的含義:人工智能在存在和思想上,可能和人類自身形式有很大的不同。

簡而言之,這種觀點表明,一種成熟的人工智能不一定是仿人的智能,或者由我們支配。如果我們以錯誤的方式去尋找人工智能,它出現的形式可能就會是:難以識別、風險擴大並且延遲收益。

這不僅僅是對於未來的擔憂。人工智能早已走出實驗室,並且深入日常生活。「弱人工智能」(Soft A.I.),比如蘋果的Siri和亞馬遜的推薦引擎,以及人工智能基礎設施,比如高頻算法交易,智能汽車和工業機械人已成為日常生活的一部分,與我們的工具使用、城市發展、經濟建設和商品貿易息息相關。

不幸的是,人工智能的主流觀點,起碼在無數的電影、遊戲和書籍中描述的,依然假定那些與人相似的特徵(憤怒、嫉妒、困惑、貪婪、驕傲、慾望,更不用說冷漠疏遠)是人工智能最重要的部分。這種錯誤的人類中心主義也許和現在的人工智能研究相去甚遠,但這也側面反映了我們的文化如何看待自我和高級合成認知(advanced syntheticcognition)。

在斯蒂文·斯皮爾伯格2001年的電影《A.I. Artificial Intelligence》中,那個小男孩機械人想要成為真正的男孩,雖然他只有一顆小金屬心靈,而天網在電影《Terminator》中則沉迷於人類毀滅。我們不假思索的假定,斯坦利·庫布里克和亞瑟·查理斯·克拉克1968年的電影《2001: A Space Odyssey》裡的巨石Monoliths是在和人類主人公大衛交流,而不是他宇宙飛船上的人工智能:HAL 9000。

我認為我們應該停止這樣的想法:真正的人工智能必須深切考慮到人類,尤其是以人作為它的關注點和動機。也許我們真正害怕的,並非是一台殺死我們的大機器,而是它認為我們無關緊要。這比被視作敵人更加糟糕。

除非我們假設,類人智能代表了所有可能的智能形式(這當然是自欺欺人),否則為什麼要根據和我們的相似性來定義先進的人工智能?畢竟「智能」非常難以定義,而人類智能又無法簡單地包含所有可能性。即便在實驗室它具有實用的價值,但從文化角度,它還是適得其反,是不道德甚至是危險的。

我們不需要如此狹隘和自戀的人工智能觀念,所以不能僅僅把我們自身的特性映射到機器的版本中。如果把這種狹隘的觀念作為人類和人工智能溝通的基礎,這個前提就已經是錯誤的了。更不用說,歷史上不同群體的「第一次接觸」,即使是在人類之間,也往往是不愉快的經歷。

 

圖靈需要隱藏同性戀傾向以通過「直男測試」

從雷德利·斯科特的《銀翼殺手》到斯派克·瓊斯的《她》,這些無數的科幻電影在測試人工智能的能力的時候,都要看它是否能被「以人相待」。這種觀點從人工智能研究開始一直伴隨到現在。這最早可以回溯到1950 年,英國數學家阿蘭·圖靈發表了論文《計算機器與智能》,那時候他提出了「模仿遊戲」測試,也就是我們今天說的「圖靈測試」。雖然版本有所不同,但它揭示了我們研究人工智能文化和道德的方法論定義了人工智能本身:無論是好的還是壞的。

最讓人熟悉的版本是:提問者向兩個隱藏的參賽者提問,一個是人,另一個是電腦。圖靈認為,如果提問者不能區分兩者的身份,並且電腦能成功假扮成人,那麼就成功通過測試。從實踐目的來說,電腦不就是「智能」的嗎?

電腦需要假裝成人以通過人類的測試,而圖靈需要隱藏同性戀傾向以通過「直男測試」,這真是有趣的巧合。

遺憾的是,更多的人僅僅「知道」圖靈測試,而沒有真正閱讀過。圖靈的文本是非凡、奇妙而令人驚訝的。圖靈說他的測試是一種流行客廳遊戲的變種:有兩個藏在幕後的參賽者,一位女性(參賽者A)和一位男性(參賽者B),他們需要努力說服,讓第三個人認為自己是一名女性,通過手寫回答問題的方式。為了獲勝,一個參賽者必須令人信服的扮演自己,而另一方需要假扮成另一種性別。圖靈用電腦取代了玩家A,在字面上你可以理解為,電腦不僅僅要扮演一個人,而且得扮演成女性才能通過測試。

在其他版本的測試中,參賽者B可以是男性,也可以是女性。遊戲裡可以一個人假裝、或者兩人假裝、抑或兩人都不假裝,也可以是完全不同的遊戲。既然我們讓電腦參賽,我們可以讓它假扮成女性或男性,這個角色假扮成女性,讓詢問者分不清男女。也可以玩的更加複雜,電腦假扮成試圖假裝女人的男人,同時還有一個真的人也在這麼做。甚至說,讓電腦假扮成為這樣的女性,她假扮成試圖假裝女人的男人。畢竟在現實生活中,這些情況都有可能發生。

莫騰·泰杜姆導演的《模仿遊戲》獲得了2014年奧斯卡大獎。在那個同性戀被視作犯罪的年代,即便是身為數學家的圖靈也得假扮成「直男」。而當他的性傾向暴露時,不得不接受可怕的「化學閹割」治療。最終,在巨大的身體和精神痛楚下,圖靈自殺了。這是歷史上荒誕的插曲,當時他對擊敗希特拉軍隊的貢獻還是一個國家機密。直到最近,圖靈才得到了英女王的皇家豁免,然而類似法律下被懲處的其他成千上萬的英國男子卻未被豁免。

電腦被要求通過測試來證明智力,和圖靈被要求假扮成直男來通過測試,這裡面有着諷刺的對應,既嘩眾取寵也極度不公平。

無論是以白人或黑人、男人或女人的身份通過測試,基本上都取決於他人的觀察和解釋。因為其他人都已經習慣於傳統的暗示(種族,性,性別,物種等),所以無論誰想通過測試,都只有和觀察者進行共謀。至於人工智能是否願意這麼做,或者僅僅被拖過來完成測試,那就是另一個問題了。無論如何,通過與否更多關乎觀眾,而非被測試者的表現。

我們最好這樣假定,在宇宙中思考是多樣化的行為,即便是外星人也會思考,人類並非是特殊的個案。相對於人類教育機器如何思考,人工智能真正的哲學問題是,機器如何教育人類在一個更完整和真實的維度裡思考。

 

人類中心主義困境

過去我們總是根據模擬人類思維的能力來定義人工智能存在,在未來看來,這種想法其實只是一種奇怪的物種偏見。在這種想法下,早期人工智能研究者試圖在機器中重建人類思維,但這根本行不通。相反,現代的研究者認為,如果機器能在特定領域裡把事情做好,就可以被稱作「智能的」,而不是它能在多大程度反映出人類思想。Stuart Russell和PeterNorvig(現任谷歌研究院主任)在他們重要的著作《人工智能》中就指出了,對生物形態的簡單模仿並不足以應用於複雜精巧的現代科技:飛機並不以鳥類的方式飛行,我們在測試飛機是否是「真正的」飛行器時,當然也不會去看看鳥類是否會把飛機與同類混淆。既然如此,為什麼人們對人工智能採用了這樣的判斷標準呢?現代務實的人工智能研究並不會把圖靈測試作為成功的標準,然而在流行文化中,這種人類中心主義的測試卻在長期受到重視。人們對於人工智能的想象大多數還停留在迪士尼電影中會說話的動物這一層次上,而這其實不過是一種幼稚的口技而已。

有人會說:把模仿人類形態作為人工智能的先決條件不夠科學,是一種「前哥白尼」時代的觀點。那麼這種觀點真正的問題在哪裡呢?如果在未來,我們日常所見的人工智能都具有某種人性,情形會怎麼樣呢?好的方面是我們會與機器智慧建立一種更為真誠而清醒的關係,而壞的方面是,如果我們對生命體抱有這樣的幻想,將會損失更多可能性。有些哲學家已經思考賦予有感情的機器以倫理權利了,但我想要說的不是這個,事實上,我們在思考這些人工智能體的時候,應該尋找更為真實的視角。

馬斯克、蓋茨和霍金關於人工智能威脅的言論引起了廣泛的關注。他們的觀點很重要,但是,恐怕大多數讀者都誤解了他們。如果我們像1942年阿西莫夫「機械人三大定律「一樣,寄希望于給機械人編程,禁止它們傷害人類,首先我們就要讓機械人能夠理解什麼是「人類」,以及什麼是「傷害」。機械人並不需要做什麼惡毒的行為就可以傷害到人類,一個最簡單的例子就是:它們只要把人類正常含義的指令以一種機械而極端的方式執行,就足以帶來一場災難。人工智能真正的威脅不在於機械故障或者對於反人類道德的舉動,而是在於它們智力強大,卻對人類漠不關心。如果我們像以前那樣,依據它們與人類的相似性來定義人工智能,並假定它們全心專注於人類事務,我們就更加面臨著這方面的風險。

不管想像中的「強人工智能」是否真正會出現,如果我們總是堅持一種我們已經知道其錯誤的信念,我們將會錯失發現和理解人工智能的良機。在1950年的那篇文章中,圖靈提到了對他設想的人工智能的很多反駁意見,令人印象深刻的是,他把對人工智能的反對與當年天主教會反對哥白尼天文學相類比。哥白尼的發現使人們放棄了自己處於宇宙中心,具有絕對優越性的錯誤觀點,這種發現是不可估量的巨大成就。這使得人類更清醒地認識世界,把世界實際的狀態,而不是從我們這個角度能夠觀察到的狀態,作為思想的基礎。圖靈把這些反駁意見作為「神學的反對意見」。另一方面,也會有人說,不管圖靈測試有多麼悠久,把類人智能作為人工智能的先決條件,也同樣與「前哥白尼時代」的人類中心主義無異。先進的、不像人類的人工智能的到來,可能會帶來一場新的覺醒,使我們對於我們自身、我們所處的環境、以及什麼是真正的「智能」有更為清醒的認識。這樣我們建立的世界模型就更加接近世界真實的樣子,我們對於未來也會更有信心,這總是一件好的事情。

最後,這種想法延續了過去人類與技術的關係,這種關係已經把我們帶到了「第六次物種大滅絕」的邊緣。按理說,人類中心主義本身並不是來自走向瘋狂的技術,而更多地是由於人文主義的遺產,使得我們總是幻想世界是按我們人類的設想,依人類的需要而建立的。這些幻想常常能從現代的意見領袖口中聽到,他們向大家布道,勾勒了一個美好的世界,在那裡機器是為人的需要和願望而服務的。如果你真的這樣認為,就上網查一下「殺豬機械人」(不要真的這樣做),然後我們再來談談一個機器完全服從於人的需要的世界是什麼樣的。

有人或許在想,我們人類社會也經歷了從奴隸制度、神權制度到法制社會,所以即便到了2015 年,對機器來說又何嘗不可?這種情緒(更精確地說,是這種技術哲學)本質上就是帶來人類中心主義困境的原因,如果繼續堅持這種觀點,我們也很難順利走向人工智能。人類如果繼續堅持這種妄自尊大的習俗,未來將會付出過於高昂的代價。現在,到了我們改變的時候了。


 人工智能的迷思:將來到底會否成為人類最大的威脅?