當你的手機開始自己聊天時

本文為約稿文,謝絕約稿者之外的一切轉載,違者必追究法律責任。

首發于《外灘畫報》旗下微信公眾號“文工團”。


開場白

如果,有一個人,被關在一個房間里,出不去。
  看管她的人說,你要出去,也不是不可能,我會找來一個小伙子,你只要能騙得他來幫你,你就有機會出去。
  接下來,會發生什么呢?
  這樣的劇情,如果放在人世間,恐怕不會有太多的深度可以來挖掘,無非就是爾虞我詐玩弄感情利益交換等戲碼,但如果現在告訴你這個被關起來的其實是一個機器人,恐怕即便是完全相同的戲碼,也會被玩出皆然不同的高度,或者至少是噱頭吧。
  而這,便是前陣子最火的電影之一——《機械姬》。

本文并不打算在電影上多做停留,因為,如果我們如開頭所說,將這個機器人完全換成一個人,那么你會發現這個故事其實非常簡單明了,沒有過多內涵可言,或者說其所蘊含的內涵完全談不上有多深。
  這部電影的劇情之所以會讓人關注,無非便是因為這里的“女主角”是一個人工智能罷了。
  我們接下去要討論的,是另外的一些問題。
  其中,最先拉開大幕的,便是最電影中最開始提到的那個酷炫的名詞——圖靈測試。


圖靈測試

圖靈測試,拜現代媒體與影視工業所賜,已經幾乎成為了一個家喻戶曉的名詞,尤其是最近卷福出演的《模仿游戲》,更是讓“圖靈測試”一詞成了時下年輕人的裝逼必選。
  一般來說,圖靈測試被認為是判斷一套人機交互軟件是否足夠接近人的測試,其最早出現在阿蘭·圖靈[1]于1950的跨時代論文《計算機械與智能》[2]中。在這篇偉大的論文中,圖靈為了回答“機器是否可以思考(Can machine thing?)”這一問題,并發現“思考(Thinking)”一詞本身難以給出一個明確而不模糊的定義,從而選擇了一個可以準確定義并能恰當地接近“機器是否可以思考”這一問題的替代問題,也就是“模仿游戲”[3]

It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman.
......
The ideal arrangement is to have a teleprinter communicating between the two rooms.
......
We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?"[4]

上面這段翻譯過來,便是這么一場著名的游戲:

假定我們有三個人:男人A,女人B,以及詢問者C(無論性別),詢問者C獨自呆在一個房間中。游戲的目的,便是詢問者和A與B進行對話,并判斷到底哪個是男人,哪個是女人。其中,詢問者與A和B的交流只能通過鏈接兩個房間(詢問者所在的房間與A、B所在的房間)的傳真機來完成。A會模仿女人來回答詢問者提出的問題,而B則要識途讓詢問者認定自己才是女人。
  現在,如果將A換成一臺機器,依然按照如上規則來進行這個模仿游戲,詢問者判斷錯誤的概率是否可能和A是一名男人的時候一樣高?

這是一個非常有技巧性的提問方式,通過暗箱中反饋來的行為(無論是男人A,女人B,還是機器人A',對于詢問者C來說都是一個個暗箱)來判斷暗箱到底是什么屬性。而且,這樣的代換可以巧妙地避開“思考”一詞的定義模糊性,完全由A-B測試的結果和A'-B測試的結果的統計性對比來判斷到底A和A'在行為表現方面足夠接近,從而判斷這臺被試機器是否足夠接近一名人類(在這個游戲中,其實更應該說是“是否足夠接近一名人類男性”)。
  當然,在圖靈那篇論文的后面,還給出了圖靈測試的更精簡版本,也是大眾更熟悉的版本:

It was suggested tentatively that the question, "Can machines think?" should be replaced by "Are there imaginable digital computers which would do well in the imitation game?" If we wish we can make this superficially more general and ask "Are there discrete-state machines which would do well?" But in view of the universality property we see that either of these questions is equivalent to this, "Let us fix our attention on one particular digital computer C. Is it true that by modifying this computer to have an adequate storage, suitably increasing its speed of action, and providing it with an appropriate programme, C can be made to play satisfactorily the part of A in the imitation game, the part of B being taken by a man?"[5]

最后這里圖靈所提出的“模仿游戲”的內容其實就是:如果A是一臺恰當變成的電腦,而B是一個人類[6],那么在這個模仿游戲中詢問者是否可能無法對這兩者做出區分?
  這便是我們現在最熟悉的“圖靈測試”[7]

那么,有一個問題我們必須要搞清楚,那就是:圖靈測試所測試的究竟是什么?
  在大眾娛樂圈中,圖靈測試儼然成為了判斷一臺機器或者更應該說是一套“智能軟件”是否足夠智能的測試,但實際上到底是否如此呢?
  讓我們來開一個腦洞:
  假定我們已經有了時間機器,然后這臺機器在你作為詢問者提出問題之前就已經知道了你會問的所有的問題,然后自動遍歷所有合適的答案,通過“檢驗未來”的能力來分析出怎么樣的一套答案可以通過你作為詢問者而成立的圖靈測試,那么,請問,這樣的一臺時間機器是否具有人類所預期的智能?
  答案,我想很顯然:當然不是。
  當然,這個腦洞本質上并不說明問題,因為物理定律至少暫時在人類的理解范疇內是禁止類時閉曲線的存在的,所以使用一種不可能存在的幻想來否定另一個還不知道是否可能成立的實驗,本身并不靠譜。
  那么,讓我們來換一個問題:這臺電腦對于文字能表達的所有的問題,都可以做出恰如其分的回復,但本身卻不具備任何文字之外的交互能力,比如說,給它配合上發音設備之后,你會發現它說的話本身沒有問題,可整句句子完全沒有語氣變化,那么這樣的機器是否真的具有智能?
  答案依然是沒有。
  我們還可以來問一個相反的問題:假定我們現在已經遇到了外星人,或者從一個非洲部落里找來一位年輕人,無論是外星人還是部落里的年輕人,對于紐約大都會里一名普通宅男所處的日常生活與常識完全沒概念,以至于在回答這些完全沒概念的問題時都很刻板,那么這樣的一個外星人/人,一臺未來的高級版Siri和一個紐約客在一起丟給一個詢問者,詢問者恐怕會率先認為這位外星人/人沒有通過針對智能電腦的圖靈測試。
  因此,難道說沒有通過測試就真的沒有智能了么?
  讓我們回到模仿游戲的本意上來。

模仿游戲,當然也包括圖靈測試,其本意是說:兩個不同質的對象A和B是否可能在表現出的行為上足夠接近,以至于測試者無法對其作出區分。
  那么,這里的關鍵問題其實倒不在于A和B在本質上有多么不同以及在行為上多么接近,而在于測試者如何區分——換言之,就和電影《機械姬》中我們所看到的那樣,最關鍵的是要選擇一個測試者,而不是被試。
  那么,我們如何對A和B做出區分呢?
  一個貌似合理的回答,是說從A和B對測試者所提出的問題或者交互的反饋,來做出判斷,從而是完全行為意義上的。
  但,這個回答其實只回答了一半,還有另一半——A和B所做出的行為,在測試者自身的知識經驗體系中到底在多大程度上接近“智能”的定義。
  這個問題,可沒有我們所想的那么簡單,因為,每個人對于什么樣的行為是符合“智能”的定義是可以完全不同的。
  圖靈提出模仿游戲的本意是通過這種行為上的對比來回避關于“思考”的模糊定義,在這里其實就是對于“智能”的定義的模糊性,但問題在于,由于這里必須引入一個仲裁者,而這個仲裁者個人關于到底什么樣的行為是智能的,是“思考”,本身也還是存在模糊性的。
  更嚴重的是,這種模糊性并不是固定不變的,而是可以改變的,而且可以變得非常讓人頭疼。
  讓我們來看一個實驗——一個測試者面對著十個處于黑箱中的回答者,然后我告訴這個測試者,讓他找出這十個黑箱中哪些是真人——但我沒說到底有幾個真人。
  這是一個不定項選擇題。
  然后,幾乎可以有把握地說,我如果在這十個黑箱中安排的都是仿智能程序,但模仿程度不同,表現出來的行為接近人類的程度不同,那么最后測試人員幾乎會很有把握地跟我說,那一個或者兩三個最接近人的仿智能程序是真人——只要這些程序不是錯得太離譜。
  為什么會這樣?因為這里有了對比——九個提利昂·蘭尼斯特[8]和一個潘長江站在一起,潘長江自然是最高的了,別管他到底有沒有達到中國男性平均身高。
  在原始版的模仿游戲中,當然不存在這樣的比較帶來的困擾,可問題其實依然存在:對于到底這個模仿多成功的判斷,很大程度上取決于測試者對于模仿行為所要體現的“思考”與“智能”的行為特征的認定,從而是有模糊性的。
  因此,本質上來說,基于模仿游戲的圖靈測試所測試的并不是<u>被試程序是否具有智能</u>,本質上所測試的是<u>被試程序在測試者看來有多符合(人這種)智能體的行為特征</u>,但后者“智能體的行為特征”是前者“智能”的一個外延屬性,兩者本質上并不等同,具有后者的未必真的具有前者。
  所以,智慧外星人來參加人類主持的圖靈測試,很可能會不及格,因為外星人的行為特征本身就可能和人類的行為特征完全不同,通不過測試很正常。
  往進一步來說,人類本身的行為是否真的處處都符合這個“(人這種)智能體的行為特征”?答案也是未必的——一位情緒激動的中年婦女來參加圖靈測試很可能也無法通過,因為,如果你和我一樣反復觀察過的話,你會發現很多中年婦女情緒激動的時候會將同一個事件甚至同一句話反復三次甚至更多,而且很多時候她所說的內容和你所問的內容沒有半毛錢關系。
  當然,不得不提,<big>我這里并無意對中年婦女表示不敬,請大家不要誤會。</big>
  問題在于,人類的行為,除了符合智能特征的行為之外,還存在大量“無智”的行為,尤其在情緒上來的時候,因此從這點來說,圖靈測試甚至也不測試智能[9]——如果真的完全按照模仿游戲的規則來,那么測試者完全可以激怒被試,然后被試的表現很大程度上應該會體現出失智現象,從而整個行為和智能就無關了——當然,關于情緒、情感、感性行為和理性行為,以及這些東西和“智能”與“思考”的關系,這個以后再說。
  所以說,圖靈測試本質上和智能檢驗無關,它是關于被試是否足夠接近人的行為特征測試,而且很大程度上依賴于測試者自身。
  也因此,我們可以看到,關于圖靈測試還有一個增強版:<u>完全圖靈測試</u>[10]
  在原始的圖靈測試中,測試者與兩位被試之間只能通過傳真機進行純文字的問答交流,但這樣的交流不免還是不足,因此在“完全圖靈測試”中,測試者與兩位被試之間可以通過一切人與人之間能實施的交互方式來互動,當然除了對對方造成傷害的互動方式[11]
  從某種程度上來說,《機械姬》中的測試便是完全圖靈測試。
  這個升級版的優越性,在于將原本只局限在文字交流的行為方式拓展為所有可能的行為方式,從而極大地增加了測試的準確度——一臺機器完全可能在不知道情緒是什么的情況下,給出充滿情緒色彩的文本回復。
  當然,有部分專家認為,如果一臺機器已經可以通過圖靈測試,那么只需要一些簡單的支持性拓展,自然也可以通過完全圖靈測試,對此這里不做展開討論。
  但,很顯然這樣的升級版也還是不夠的,因為,就如前面我們所分析過的,圖靈測試本身較大程度上依賴于測試者。因此,如果測試者本身的隨機因素不去除的話,即便通過了完全圖靈測試,也依然不能就此簡單地認為被試機器已經成功地達到了“足夠接近人”這個目標。
  為此,我個人提出了第二個升級版:<u>終極圖靈測試</u>。
  測試方法其實很簡單:將被試機器人放到人類社會中,與人類保持接觸一同生活,經歷一段時間后,如果沒有人發現這個機器人有什么超出人類行為合理程度范圍的行為,沒有任何不正常的怪異之處,沒有人能認出來它是一臺人工智能機器人,那么才能說這臺機器真的已經足夠接近人類了。
  通過整個人群社會的整體監督,我們才能說將圖靈測試中可能存在的個人因素被恰當地排除了——當然,如果真要較真的話,這里不過是將一個人群的平均判定取代了單個測試員的個人判定,模糊性與不恰當的偏性當然依然是存在的,比如放在非洲食人族部落和放在紐約曼哈頓,給出的判斷恐怕就會有一定的偏差。
  但,無論我們的測試如何升級,基于模仿游戲的圖靈測試系列都有一個問題難以回避——我們只能經由此篩選出那些行為上足夠接近人類的機器,可,這樣的機器到底是否真的具有智能,真的可以獨立思考呢?
  更關鍵的問題,這樣的機器是否具有那傳說中的人類一般的靈魂呢?


智能與靈魂

在人工智能領域,除了圖靈測試,還有很多問題總是被大家津津樂道,其中最為大眾所熟悉的,恐怕就是這兩個問題了:中文房間[12],以及,瑪麗房間[13]

所謂中文房間,是指下面這樣的一個思想實驗:

"Suppose that I'm locked in a room and ... that I know no Chinese, either written or spoken". He further supposes that he has a set of rules in English that "enable me to correlate one set of formal symbols with another set of formal symbols", that is, the Chinese characters. These rules allow him to respond, in written Chinese, to questions, also written in Chinese, in such a way that the posers of the questions – who do understand Chinese – are convinced that Searle can actually understand the Chinese conversation too, even though he cannot.[14]

翻譯過來就是說:假定我們將一個不懂中文的人鎖在一個房間里,交給他一本記錄了中文所有字法、詞法、句法等規則的說明手冊和足夠多的中文字符,接著從房間外傳來很多中文字符,他根據說明手冊來選擇中文字符并傳出房間,在這個過程中房間外的人甚至會逐漸認為寫出從房間里傳出的字符上的中文語句的“人”是懂中文的。
  可問題在于,房間里的人其實根本不懂中文,而傳出的中文語句卻讓人認為他懂了中文,從而指出行為認定上的“懂”與“真正意義”上的“懂”是不同的,進而借此反駁基于行為主義的強人工智能假說[15],因為強人工智能假說認為<u>如果一臺機器具有作為一個人的所有智能行為能力,那么它必然也擁有心靈(mind)與意識(consciousness)。</u>
  在提出者約翰·希爾特看來,中文房間的外在行為無論多么讓人認為房間里的人是懂中文的,房間里的人本身還是對中文一竅不通的。而,相應的,如果將整個中文房間看作是一個機器人,那么這個不懂中文的人就是機器人的核心處理系統,而那本規則就是一套人工智能算法,整個房間與人的互動就可以看作是一個圖靈測試,從而中文房間問題就可以被表述為:通過圖靈測試的機器本質上依然不具備人一樣的意識與智能,它所作的不過是按照規則來反饋罷了。
  通過這種將行為上的懂得與實際操縱者的懂得區分開的二元觀點[16],希爾特認為有效地反駁了通過強人工智能假說。

于此相應的,瑪麗房間——大家了解這個問題大概還要歸功于《機械姬》吧,因為這就是電影中所提到的“黑白房間里的瑪麗”——問題可以這么來表達:

Mary is a brilliant scientist who is, for whatever reason, forced to investigate the world from a black and white room via a black and white television monitor. She specializes in the neurophysiology of vision and acquires, let us suppose, all the physical information there is to obtain about what goes on when we see ripe tomatoes, or the sky, and use terms like ‘red’, ‘blue’, and so on. She discovers, for example, just which wavelength combinations from the sky stimulate the retina, and exactly how this produces via the central nervous system the contraction of the vocal cords and expulsion of air from the lungs that results in the uttering of the sentence ‘The sky is blue’. [...] What will happen when Mary is released from her black and white room or is given a color television monitor? Will she learn anything or not?[17]

簡單來說,就是如果一個天才科學家瑪麗一生都被關在一個房間里,只能通過黑白顯示屏來看外面的世界。同時,瑪麗又知道關于色彩的所有物理學與神經學等知識,知道當看到彩虹或者天空或者紅色藍色等物理信號時,自己的腦神經應該做出什么樣的反應。那么,當瑪麗走出房間,或者黑白顯示器被替換為彩色顯示器時,瑪麗會怎么樣?她是早就掌握了這些看到的東西,還是又有了全新的知識?
  問題提出者法蘭克·杰克森通過這個思想實驗,駁斥了物理主義所認為的世間一切皆物理的觀點,因為在瑪麗房間問題中,雖然瑪麗了解了與色彩相關的物理方面的一切,但當她真正地看到那些色彩的時候,必然會有全新的認識,從而這些認識是脫離哪些物理實體而存在的東西。
  在機器人問題中,其實和中文房間問題一樣:機器人通過傳感器感知到了外部世界傳來的一切物理信息,無論是熱還是色彩,但物理信息并不是人類感知的全部,所以機器人并不能真正地通過傳感器來感受到人類能感受到的一切。

上述兩個思想實驗都識途論證強人工智能的不可行(雖然瑪麗房間的提出原本和人工智能問題無關,但強人工智能假設在某種程度上和物理主義也是有聯系的),而且看上去都頗有力,從而為人工智能的崛起抹上了一蒙陰霾。
  但,事實上真的如此么?

從某種意義上來說,中文房間與瑪麗房間正好是相反的兩個問題。
  中文房間問題中,人工智能對外界輸出,且輸出完全符合外界的判斷標準,但房間問題提出者依然指出這并不等于說人工智能就真的具備了人的靈魂與智能。
  而在瑪麗房間中,這個問題正好反過來,人工智能通過物理傳感器來獲得外界的一切輸入,但這是否就意味著人工智能因此而真正理解與感受到外界了呢?房間問題提出者認為并非如此。
  事實上,我們還可以結合這兩者,弄出一個“黑白中文屋中的瑪麗”問題:瑪麗懂得關于色彩的一切知識但不懂中文,然后房間外的人讓瑪麗畫一副關于蔚藍天空的包含一首唐詩的水彩畫,于是瑪麗通過自己所擁有的關于色彩的知識和中文屋說明書,控制連接到屋外的機械臂和一臺光譜分析儀,選擇顏料并進行繪畫。那么,請問,瑪麗到底知道自己畫了什么么?如果她后來看到了自己所畫的畫的本體,是否會通過自己的畫作了解到更多自己原本不知道的東西呢?
  你看,現在所有的感受都是物理信號,瑪麗并沒有真正感受過天空,而是根據知識(當然也包括如何繪畫天空才好的知識)來進行畫作;她也不懂中文,只是根據說明書寫出了一首唐詩。她既不懂天空也不懂中文,卻畫出了一副有著一首唐詩的關于蔚藍天空的水彩畫,這樣的事情怎么想都感覺是不可思議的。
  可,從另一個角度來說,人不也是如此么?
  人的眼睛與耳朵所看到與聽到的外界的信息,最后都是通過神經電脈沖的形式傳遞到大腦的,而,這無論是模擬信號還是數字信號,本質上都還是物理信號啊。由此可見,如果說人是通過大腦對這些物理信號進行加工處理從而形成感受的話,那這樣的過程就沒道理說人工智能的CPU中不會進行。

從某種程度來說,中文房子也可以和人腦做類比——整個人就是中文房間,而那個房間里不懂中文的人就是我們的大腦,那本說明書就是我們的大腦通過學習而積累下來的關于中文的所有知識,那么中文房間問題是不是告訴我們其實中國人的大腦根本不懂中文?
  對此的反駁在于那本說明書——a set of rules in English that "enable me to correlate one set of formal symbols with another set of formal symbols"。
  在希爾特看來,這本說明書本質上是一套關于符號變換的形式化體系,而,人腦理應不是形式化系統,所以中文房間對人的類比無效。
  可,同樣的說法對于AI來說也成立——誰說能通過圖靈測試(無論是原始圖靈測試還是完全圖靈測試還是我的終極圖靈測試)的人工智能的那套算法就是一套“形式系統”了?
  雖然我們現在,以及在可以想象到的未來,程序都必然是通過程序來給出的,從而都是可以用完備可枚舉語言這一類人工語言來寫出的,從而勢必這樣的算法可以被看作是一個形式系統。但,我們并不知道的是,未來的AI是否依然是通過這樣的方式來實現的。
  既然中文房間對AI是指通過圖靈測試的AI未必如人一般擁有心靈與智慧,那么我們當然需要考慮通過圖靈測試的機器到底是否是形式系統這樣的問題了,而這樣的問題我們現在并沒有一個明確的答案。
  另一方面,人類大腦的工作流程是否真的不能被表達為一種形式系統呢?目前對此并沒有一個很明確的答案。提出過震驚世界的關于二階謂詞系統的完備性和自洽性不可兼得的哥德爾曾利用他的不完備性定理試圖論證人的心是超越形式系統的存在。
  哥德爾首先指出[18]:“從我的定理可以推出的結論只能是如下形式的選言判斷:或者數學是不可完全的,即它的自明的公理不可能包含在有窮規則中,因此人心超過有窮機器;或者存在人心絕對不可判定的數論問題。”然后,他通過希爾伯特式的預設“人類理性提出的問題人類理性一定能夠解答”來排除了第二個選項,于是便“證明”了人心超越形式系統,從而人心超越任何可能的人工智能。
  但,且不說這里通過強行定義的方式將“不利于人心”的選項給排除了,就說這個論證本身,也隱含這么一個問題:即便存在一臺機器可以如人心一般具有數學直覺,人們也無法驗證這點[19]。這點本身就是哥德爾的理論所要求的。
  因此,人心果然可以超越形式系統這點,本身其實是被定義的,而不是被嚴格論證的結果[20]
  所以,回到中文房間問題,會中文的人腦中對中文的理解所作的操作難道真的不能被表達為某種形式系統么?如果這點并沒有證明的話,那實際上我們就不能說中文房間問題對人腦就不適用——會中文的人的腦子根本不會中文,只是表現起來仿佛會一樣,這樣的自相矛盾最終所導致的就是“哲學僵尸”[21]
  進一步,我們知道腦島皮質、前扣帶皮質和內側前額葉皮質對于意識的產生起到關鍵作用[22],也知道布若卡氏區負責管理語言產生而韋尼克區負責語言理解,那么我們是否可以說其實大腦中的人類意識并不真的懂得中文,僅僅是根據韋尼克區返回的結果結合負責記憶與知識的腦區的資料讓布若卡氏區產生回復么?當然不能。這種將大腦的不同區域做分割然后問其中是否某一個區域懂中文而別的區域不懂,這樣的做法本身是有問題的,實際上我們只能說:大腦整體所表現出來的就是懂中文。
  對于人工智能來說,其實情況也很類似:我們不能指著CPU問到底上面的哪一個PN結具有真正的人工智能,實際情況是整個機器整體具有人工智能。在中文房間中,說明書負責理解和做出反饋就好比CPU和存儲器,人類則負責信息的傳入傳出就好比數據總線與指令總線,而房間則給出了輸入輸出設備,我們怎么能將CPU、存儲器、數據總線和指令總線分開,然后詢問那兩根總線是否懂中文呢?這樣的提法不覺得很奇怪么?真要說的話也應該問那本說明書是否懂得中文——但這也等于問一個中文操持者,你所掌握的所有中文知識、你對所有可能的中文交互的理解與反應,這樣一個整體,是否懂中文?
  事實上,這里就牽扯到兩個問題:
  首先,“懂”的準確定義是什么?
  其次,整體的懂是否可以合理地分解為某幾個組成部分的懂?而這樣的分解和中文房間文中的提問方式是否相融?
  從中文房間提出者希爾特的觀點來看,顯然他所認為的“懂”是超越了人與人正常交互這個范疇的,即即便一個人和你交流某個領域的問題,讓你覺得一點點“他可能并不懂”的疑惑都沒有,你依然沒有理由說他真的懂了,因為希爾特在反對強人工智能假說時就是這么論證的——從交互上來說無法說“不懂中文”的中文屋子卻被認為并不真正懂得中文,至少那“核心”的部分如此。
  可,如果對于“懂”的判定超越了所有可能的行為,那么一個人是否懂就只能去拷問這個人的“心靈”,而這種拷問無論以什么方式與詢問者交互,都是不可靠的,那就是說——一個人是否懂這件事只有他自己知道,別人一概不知。
  如果一個人懂中文這件事可以被別人知道,那么請問是如何被人知道的呢?是否存在不通過任何可能的交互方式的方法讓一個人知道你真的懂中文?如果這樣的方法不存在,那就是說懂不懂對于他人來說依然需要通過交互來體現,那么通過交互體現出“懂”這一行為的中文房間為何就不算懂呢?如果這樣的方式存在,請給出。
  因此,如果要保持對“懂”的定義具備可操作的判定手段而不是純粹唯心的思辨或者說狡辯,我們就必須面對第二個問題:整體懂和部分懂是否是同一的?
  這樣的問題或許也可以這么問:具備群體智慧的螞蟻和蜂群,其中的每一個螞蟻和蜜蜂是否具有智慧?
  如果說中文房間的“懂中文”可以推論出房間中的人也“懂中文”的話,那等于說組成整體的部分也必然具有和整體相同的屬性,但這點顯然是錯的。
  當然你可以說這里其實是“構成整體的部分中的某一個部分具有和整體相同的屬性”,可這樣的“子部分”在中文房間問題中是否真的是以房間中的人的形式而存在的呢?
  你看,問題從頭到尾都是提問者假定了這個人真的可以擁有和整個房間相同的屬性這個前提,但,這是假定,并不是證明,而假定完全可能是錯誤的。
  引申到人工智能的問題上來,這樣問題實際上就是:如果一個機器人在行為上和人一點差別都沒有,無論通過什么方式任何人都無法區分這部機器到底是人還是機器人,那么這樣的人工智能是否具有靈魂?
  或者,可以這么說:這樣的人工智能究竟是有靈魂的偽人,還是無靈魂的哲學僵尸?


哲學僵尸與他心通

從強人工智能假設的角度來說,如果一個物體在與人的交互過程中,任何一個人都無法感受到這個物體不是人類,那么這個物體就必然擁有與人無差別的靈魂。
  但,某些哲學家卻認為:不,這樣的人工智能說到底不過是一具哲學僵尸罷了,并不具備與人無差別的靈魂。
  那么,哲學僵尸到底是否有靈魂呢?或者說,到底如何來區分你面前的一個人到底是人還是一具哲學僵尸呢?
  這個問題便是一個他心問題[23]

如果一個人工智能已經通過了圖靈測試——就比如說已經通過了我提出的終極圖靈測試,那么,這樣的一個人從整個社會的每一個人來說,都和真人無異,沒有絲毫區別,無論是從行為還是從感情上來說(感情也必然是通過行為表達出來的,這里的行為包括臉部微表情等等看得見摸得著可以用最尖端的儀器測量的所有一切,甚至包括放的屁),那么這樣的一個看上去和人沒有絲毫差別的家伙到底有沒有人的靈魂呢?
  如果你不是一位哲學家或者人工智能學家,你也沒有通過解剖等手段看到這家伙的“內在真相”,那么你一定無法認為這樣的存在是沒有靈魂的。
  事實上,在日常生活中,我們也不會將一位面對面的同事解剖來看看他是不是機器人,更無法通過任何手段來知道他是不是一具哲學僵尸,那么我們怎么知道對面的同事到底有沒有靈魂呢?
  或者,讓我們換一個問題。
  在《機械姬》這樣的設定中,如果現在有兩個“人”站在你面前,一個是愛娃這樣的具有機械身體的“女人”,另一個是京子這樣的具有人類肉體的“女人”,你怎么確定這兩個人里面哪個是人哪個是機器人?
  很顯然,你會認為京子這樣的是真人,而愛娃這樣的是機器人(當然,這里不考慮因為電影的因素而說一個具有人類肉體的“女人”其實是機器人這種劇透黨)。
  為什么?
  因為“京子”從外觀上更像人啊。
  可,這是真的么?
  假定,一個已經通過圖靈測試的AI,通過各種高科技手段,復活了一個死去的女人的尸體,但沒有復活她的大腦,而是操縱她的復活了的軀體進行和人無差別的行為,她是京子。而另一邊,一個人類,通過一套操縱設備操縱著一臺剛剛造出來的愛娃軀體,進行和人無差別的行為。
  這兩個人——人工智能和真人——分別使用人與機器人的軀體,都進行著和人無差別的行為,與你交互,你怎么知道那個具有人類肉體的京子實際上是AI,而那個機械身體內的卻是人類的靈魂?
  當AI通過最嚴苛的圖靈測試后,我們不可能通過任何非破壞性手段來區分它和人類,那么我們怎么知道通過軀體而作的判斷是靠譜的?
  在上述實驗中,如果我不告訴你AI操縱的到底是人身京子還是機體愛娃,也不告訴你人類操縱的是機體愛娃還是人身京子,你到底如何判斷你所看到的京子和愛娃哪一個具有“靈魂”?
  不,你根本不可能做出合理的判斷,你的判斷的出發點更多的是:人身與機體相比,更接近人類,所以京子有靈魂,愛娃沒有。
  但,實際情況呢?沒人知道。
  你怎么知道網絡上和你聊天的不是一條狗?
  當人工智能真的通過了最嚴苛的圖靈測試,在行為上與人沒有分別之后,沒有人可以區分站在你面前的家伙到底有沒有靈魂。
  而,這個問題之所以是問題,就是因為有人認為人工智能僅僅是哲學僵尸,沒有靈魂。
  于是,真正的問題就是:是否可能存在哲學僵尸?是否說,只要一個對象在行為上和人沒有絲毫區別,這個對象就必然擁有靈魂?

現在,讓我們來問自己這么一個問題:
  你怎么知道除了你自己以外的其他人,不是沒有靈魂的NPC?
  然后,再問自己一個問題:
  你怎么可以確定自己真的有靈魂?

第二個問題大家普遍認為更好回答一點:我當然知道我是有靈魂的啦。
  Cogito, ergo sum.[24]
  我思,故我在。[25]
  但凡不經思考就認定自己必然有靈魂的,理由大概都可以歸結為上面這句話。可,上面這句話真的是確定無疑地正確的么?
  笛卡爾之所以提出這個論斷,在于對世間一切持普遍懷疑態度的他突然意識到,雖然世間的幾乎一切都可以懷疑其真實性,但有一點是無法懷疑的,那就是懷疑所有一切的那個懷疑主體,這個主體必然是存在的,否則就無法懷疑了。而懷疑是一種思考,一種思維活動,所以思考的主體,即“我”,是存在的。
  所以才有了“我思故我在”。
  換言之,我思故我在的成立條件,就是思考的主體的存在性。
  那么,是否有可能一個“思考過程”不是由一個靈魂所發出的呢?
  假定,我給一臺通過最嚴苛圖靈測試的人工智能編寫一個程序,讓它不斷地思考,可以是懷疑,可以是分析,可以懷疑世間一切的存在,也可以分析自身的狀態,那么,它是不是也符合“我思故我在”,從而它的靈魂也就必然是存在的了?
  反對者可能首先就要說,這樣的“思考”過程機器不具備。
  那么,為什么一臺通過圖靈測試的人工智能不具備思考的能力呢(還記得圖靈最早的那個問題“Can machine think”么)?
  我們說機器無法思考的理由,是因為機器沒有靈魂,沒有“我”。
  因此,這就是說,我們說機器無法得到“我思故我在”的“我”的理由,是機器沒有靈魂也即沒有“我”。
  再簡化一步,上面的情況就是說:我們之所以說機器沒有“我”,是因為我們說機器沒有“我”。
  因此,一個合適的方法,是給出一個不是循環定義循環論證的邏輯結構,其中“思考”可以被嚴格而明確的定義,并通過這個定義我們可以論證人類是可以思考的,而通過最嚴苛圖靈測試的機器不可以,從而證明人類有靈魂而機器沒有。
  但,在如此而為之前請先停一下,上述的定義體系邏輯結構還要滿足一點:同樣的論證對人類不能也得到別的人沒有靈魂這樣的結論。

在“我思故我在”的語境下,其實我們都無法判斷面對面的一個人有沒有靈魂,因為他/她是否真的在思考呢?我們并不知道。
  笛卡爾懷疑通過感官感受到的一切,從而站在我們面前的那個人完全有可能是缸中之腦般的虛擬。在笛卡爾的懷疑論中,只有我自己是可以確定的,和我沒有絲毫區別的你以及別的他人到底是否是真實的,這點完全無法確定。因此,“我思故我在”的另一面其實是:“子非魚,安知魚之樂?”
  我不是你,我不知道你有沒有思考有沒有靈魂。這便是我思故我在所帶來的困局。
  那么,人們到底是如何確定面對面的另一個人不是哲學僵尸呢?
  就和上面的京子-愛娃思考實驗一樣,這個問題的答案僅僅只能通過相似性來獲得。

人類具有一個神經結構,被稱為“鏡像神經元”,它是共情能力的源頭。
  鏡像神經元會在與自身足夠相似的別的個體執行某一個行為時,發出沖動信號,從而使人具有“感同身受”的同理心。
  同樣的,當我認為自己是有靈魂的時候,我們自然也會認為那些和自己足夠相似的個體也是有靈魂的——所以,就算是一個人在操縱一條狗,我們看到這條狗的時候依然不會認為這條狗具有和自己一樣的靈魂,除非它突然開口說話或者伸手寫字。
  從這點來說,人們對于別的個體是否有靈魂的判斷,很多時候都是非理性的。
  那么,在人與人工智能的京子-愛娃實驗中,實際上所發生的,就如此前所描述的,我們僅僅是通過各種可被感知的外在相似性來判斷到底哪個具有如自己一般的靈魂,哪個沒有——因此,無論京子背后的操縱者到底是人工智能還是人,僅僅是因為京子在外觀上更像人,從而,在人工智能已經通過最嚴苛的圖靈測試從而從交互行為上無法和人做出區別這個大前提下,我們人類順利地通過長相來判定京子是有靈魂的。
  人類其實并不管真相是什么,讓自己心安理得心里舒服才是最主要的。
  說到底,人首先將自身歸類到人類,然后通過自身具有靈魂這個或許正確的前提,給出了所有人類都具有靈魂這個結論,接著對所有非人類的對象打上“沒有靈魂”的標簽。可事實到底是否如此呢?
  甚至于,如果說上述與人無法做出區別的人工智能的軀體是通過生物技術構造的有機身體,承載智能的中央處理器是生物電腦,那么這樣的一個從生物學意義上來說絕對是生物的東西,擁有一枚人工智能的大腦,這樣的有機體是否擁有靈魂?是否是有機生命?
  這樣的搭載人工智能算法的生物電腦和金屬做的人工智能機器人沒有本質上的區別,因此如果說后者沒有靈魂,那么前者也沒有靈魂,依然只是哲學僵尸。那么同樣是生物體,你怎么知道你周圍的人不是這樣的人工智能生化人?
  對此,人們實際上所做的事依然是一種無智的歸類:這是生化人,生化人是人工智能,人工智能被人類認定為沒有靈魂,所以生化人沒有靈魂。至于這個生化人到底有沒有靈魂,倒是不重要——反正人們也無法分辨這樣的通過最嚴苛圖靈測試的從交互行為上和人無法區分的生化人到底是哲學僵尸還是真人。
  再進一步,如果突然某一天來了一組外星人,你怎么知道這些外星人是有靈魂的?他們到底是外星人本體,還是外星人所造的搭載了通過最嚴苛圖靈測試的從交互行為上和外星人自身無法區分的通過生物工程制造的生化外星人?
  還是說,人類應該認為,只有人類是有靈魂的,所有外星人都沒有靈魂?
  這不過就是一個星際版的我思故我在游戲罷了,一個橫跨整個宇宙的他心問題而已。
  如果說我們認為外星人是有靈魂的,那是為什么?
  我們只能通過其外顯的行為,來鑒別其是否具有智慧特征,從而通過“有智慧”來給出“有靈魂”的結論[26]
  既然對外星人可以如此,那么對機器人為何不能如此?
  這里糾結的重點其實是:因為我們知道機器人是我們造出來的,但我們并不認為外星人是我們造出來的,而我們普遍認為靈魂是人類所獨有的高貴的特質,人的造物不配擁有。
  說白了,不過是一種狹隘又無智的純粹感性的信仰罷了,和事實無關。
  那么,如果說未來人們可以通過基因工程培育出一種全新的和人完全不像的物種,它也有智慧表現,那么這樣的東西是否有靈魂?如果基因工程中合成這種生物所用的基因具有人類的基因片段,那恐怕人們會很自豪地認為這樣的造物是有靈魂的;而如果沒有人類基因片段的話,恐怕這樣的生物的行為就算再怎么智能,也不會被大多數人認為是有智慧的吧——因為這樣的話,這種和人的本質完全無關的異生就也有了靈魂,那么人類高貴的獨一性就不復存在了。
  甚至于,即便完全是用人的基因構成的生命,人們也不會認為他們就真的有了靈魂——比如,有人提出一個人的克隆人其實是哲學僵尸,而不是具有靈魂的真人。
  為什么?究其原因,依然是“造物不能超越甚至不能接近造物主”的狹隘的人類高貴性情節,這么一種虛無縹緲的妄念。
  如果人們通過基因手段,篩選出精子和卵子,在人工子宮中孕育出一個人來了呢?這樣的人是否擁有靈魂?這樣一個誕生過程完全在實驗室中完成和人體的自然過程半毛錢關系都沒有的“合成人”,無論和人怎么接近,也是人的“造物”,從而恐怕很多人依然會認為此“人”不過是一具沒有靈魂的僵尸吧——這樣的鬧劇在人工授精剛誕生的時候便已經上演過了。
  可見,我們在利用相似性來認定人類擁有靈魂的同時,又通過“我創造了你”來認定“造物”是沒有靈魂的。
  整個過程中和靈魂是什么已經無關了,更多的是一種對于自身在整個世界中的獨特地位的一種內肯,一種自評。

所以,一個從交互行為方面來說和人沒有絲毫分別的人工智能到底有沒有靈魂呢?
  人們在提出這個問題的時候,其實真正提出的是一個確定的答案與標準——你是我的造物,你不配有靈魂。
  問題從來都和問題本身無關。
  問題只和人自己的狂妄及虛偽有關。


當你的手機開始自己聊天時

人工智能是否會夢到電子羊?
  這個問題的答案我并不知道。
  但我所知道的是,如果某一天你發現你的手機上的Siri自己在和小冰機器人聊得熱火朝天的時候,你絕對不會開心地感受到一個新生命降臨的喜悅,而是驚恐地扔下手機躲到一旁。
  你并不會因為它的智慧而感受到靈魂的悸動,而只會因為它的智慧而感受到背脊發涼。

非我族類者,其心必異。
  人說。


本文遵守創作共享CC BY-NC-SA 4.0協議

通過本協議,您可以分享并修改本文內容,只要你遵守以下授權條款規定:姓名標示非商業性相同方式分享
具體內容請查閱上述協議聲明。

本文禁止一切紙媒,即印刷于紙張之上的一切組織,包括但不限于轉載、摘編的任何應用和衍生。網絡平臺如需轉載必須與本人聯系確認。


如果喜歡簡書,想要下載簡書App的話,輕戳這里~~
<small>私人推薦訂閱專題:《有意思的文章》《嚴肅碼匠圈》</small>


  1. 關于阿蘭·圖靈的更多介紹,可以戳這里?

  2. 這篇著名的論文的文本版原文可以戳這里?

  3. 很顯然,這便是電影《模仿游戲》名字的來源。 ?

  4. 這段引用自上面提到的圖靈的那篇論文的開頭。 ?

  5. 這段引自圖靈論文的第五節《Universality of Digital Computers》的最后。 ?

  6. man既可以認為是“男人”,但在這里更應該理解為更廣義的“人類”。 ?

  7. 就和人類歷史上很多偉大的思想一樣,圖靈關于圖靈測試的想法其實并不是最早的。早在1637年,偉大的笛卡爾在《Discourse on the Method》一書中便提出過類似的思想:“機器能夠與人類互動,但認為這樣的機器不能作出適當的反應,但是任何人都可以。”。而18世紀的法國啟蒙思想家德尼·狄德羅也提出過類似的想法:“如果他們發現一只鸚鵡可以回答一切問題,我會毫不猶豫宣布它存在智慧。” ?

  8. 提利昂·蘭尼斯特,喬治·馬丁在《冰與火之歌》中所描繪的一個角色,一名侏儒。 ?

  9. 這部分大家可以看一下圖靈測試Wiki頁的“Weaknesses of the test”一節。 ?

  10. Oppy, Graham & Dowe, David (2011) The Turing Test. Stanford Encyclopedia of Philosophy. ?

  11. 這部分的定義和原始定義略有不同。最原始的完全圖靈測試的內容為:The interrogator can also test the perceptual abilities of the subject and the subject's ability to manipulate objects. ?

  12. 約翰·希爾勒于1980年發表在《行為與腦科學》雜志上的論文《心靈、大腦和程序》("Minds, Brains, and Programs")中提出的一個思想實驗,借以反駁強人工智能的觀點,詳情可戳這里?

  13. 法蘭克·杰克森于1982年發表的論文《作為副現象的感受》("Epiphenomenal Qualia")中提出的一個借以反駁物理主義的思想實驗,詳情可戳這里?

  14. 這段內容引自中文房間Wiki頁?

  15. 強人工智能假說,并不是“強人工智能”。強人工智能是指具備執行一般智慧行為的能力的、能真正自主推理和解決問題的、具有知覺和自我意識的人工智能。 ?

  16. 這種觀點還的確非常符合心物二元論,這里中文房間對外的行為可以看作是“身體”,而房間中的人本身則是“靈魂”,于是中文房間又可以看作是一個“哲學僵尸”,即雖然身體反應與人無異但本質上沒有靈魂的理論存在。 ?

  17. 這段引自瑪麗房間Wiki頁?

  18. 哥德爾在1951年的吉布斯演講手稿(1995年發表)中提出這個觀點。 ?

  19. 這段引用自北京師范大學哲學系劉曉力發表在《哲學動態》2001年增刊上的文章《人工智能的邏輯極限》?

  20. 當然,本人也不是學人工智能的,如果該領域有新的結論,歡迎大家告知。 ?

  21. 哲學僵尸,精神哲學中虛構的一個無論從哪一個層面來檢測都與人無異但卻被預設為不含心靈的僵尸。它的所有反應都和真人無異,但預設不含靈魂,從而到底這個僵尸有沒有自我意識呢?詳情可以戳這里?

  22. 雖然有文章指出意識并不僅局限于某一個腦區,而是在整個大腦多區域交叉作用的產物,比如這篇文章中所指出,但這并不妨礙我們討論接下來的問題。 ?

  23. 關于他心問題,可以戳這里看詳細介紹。 ?

  24. 拉丁語,直翻為“思,故存在。”按照拉丁語語法而省略主語,所以就是“我思故我在”。 ?

  25. 有法國著名哲學家笛卡爾提出的著名哲學命題。 ?

  26. 有智慧和有靈魂嚴格來說當然是兩碼事。但,面對一個外星人,恐怕你沒有辦法找到出了有智慧之外的別的判定標準了。看著對方雙眼時的心有靈犀這種浪漫主義手段,我們就不考慮了。。。 ?

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,182評論 6 543
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,489評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,290評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,776評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,510評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,866評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,860評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,036評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,585評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,331評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,536評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,058評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,754評論 3 349
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,154評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,469評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,273評論 3 399
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,505評論 2 379

推薦閱讀更多精彩內容