【AI哲學】人工智能科學在十七、十八世紀 歐洲哲學中的觀念起源

?

前言

盡管人工智能科學是在二戰后才在西方科技界涌現的,但其思想根苗至少可以上溯到十七、十八世紀的歐洲哲學。具體而言,人工智能的哲學“基礎問題”可被一分為二:第一,建立一個能夠展現真正人類智能的純機械模型,在觀念上是否可能?第二,若前述問題的答案是肯定的,怎樣的人類心智模型才能夠為這種模型的建立提供最佳的參照?本文將論證,笛卡爾和萊布尼茨對上述第一個問題都給出了否定的回答,而霍布斯則給出了肯定的回答。至于第二個問題,休謨關于心智構架的重構工作,就可以被視為當代AI科學中的聯結主義進路的先驅,而康德在調和直觀和思維時所付出的努力,則為當代AI專家整合“自下而上”進路和“從上至下”進路的種種方案所應和。一言以蔽之,十七、十八世紀的歐洲哲學實乃AI科學的一個潛在的“智庫”,盡管AI界的主流對此并無清楚之意識。



導 論

在很多人看來,“人工智能”(Artificial Intelligence, 簡稱AI)是一個工程技術色彩濃郁的學術領域,哲學研究則高度思辨化和抽象化,二者之間應當是風馬牛不相及的。但這實際上是一種誤解。芝加哥大學哲學教授郝格蘭的著作《人工智能概念探微》(特別是第一章)以及加州大學伯克利分校的哲學教授德瑞福斯的著作《計算機依然不能做什么》(特別是第67— 69頁),都留出了一定的篇幅,用以挖掘AI的設想在西方哲學史中的根苗。而英國女哲學家兼心理學家博登的浩瀚巨著《作為機器的心靈———認知科學史》,則以更大的篇幅討論了AI科學和整個西方科技史、思想史之間的互動關系(尤其是第二章)。不過,令人遺憾的是,在漢語哲學界, 將西方哲學史的視角和AI哲學的視角相結合的研究成果,相對還比較罕見,因此拙文將在這個方向上作出一番小小的開拓性努力。另外,筆者也希望能夠通過這種“架橋”工作,幫助讀者看到那些看似新銳的科技問題和相對古老的哲學爭議之間的密切關聯,并為緩解目前在漢語學界業已過于緊張的“科學—人文”關系,獻上綿薄之力。


為了能夠集中討論,本文將只選取西方哲學史中的一個片段——十七、十八世紀歐洲哲學——為參考系,來討論哲學和AI之間的關系。由于篇幅限制,在下面我們只能選擇五位哲學家予以概要式的討論:笛卡爾(Rene Descartes,1596—1650)、萊布尼茨(Gottfried Wilhelm von Leibniz,1646—1716)、霍布斯(Thomas Hobbes,1588—1679)、休謨(David Hume,1711—1776)和康德(Immanuel Kant,1724—1804)。他們可被編為三組:


第一組:笛卡爾萊布尼茨

笛卡爾

萊布尼茨

其特點是:他們通過卓越的哲學想象力,明白地預報了后世AI科學家通過被編程的機械來實現智能的設想。但他們又同樣明確地提出了反對機器智能的論證。從這種意義上說,他們雖不可能為今日符號AI的技術路線投贊成票,卻明確地表述出了“人工智能哲學”的基本問題意識:制造人類水平的智能機器,是不是先天可能的?

第二組:霍布斯。

他處在笛卡爾和萊布尼茨的對立面。具體而言,他雖沒有明確地提到機器智能的可實現性問題,但是他對于人類思維本性的斷言,卻在邏輯上等價于一個弱化的“物理符號假設”。因此,他可被視為二十世紀的符號AI路線在近代哲學中的先祖。

第三組:休謨和康德。

從現有文獻來看,他們并未明確討論過“機器智能的可實現問題”。然而,他們各自的心智理論卻在一個更具體的層次上引導了后世AI專家的技術思路, 因此也算作是AI科學的先驅。


在所有的這些哲學家中, 我會留給康德最多的篇幅, 因為他的思想最為深刻, 可供AI挖掘的材料也最多(盡管認識到這一點的只有侯世達等少數AI專家)。


笛卡爾和萊布尼茨:機器智能的反對者

從表面上看來,與下文所要提到的霍布斯相比,笛卡爾和萊布尼茨似乎更有資格充當符號AI(也就是經典AI)在近代哲學中的先驅。擺得上桌面的理由有:


其一,此二君都屬于廣義上的“唯理派”陣營,都主張人的心智活動的實質在于符號表征層面上的推理活動(為了宣揚這個觀點, 萊布尼茨還專門寫了一本《人類理智新論》, 和經驗論者洛克打起了筆仗);

其二,符號AI路數一般都重視數理研究和一般意義上的科學研究,而笛、萊兩人的學術造詣也都體現了這樣的特征。具體而言,笛卡爾是直角坐標系的發明人,在物理學(特別是光學)領域小有斬獲,也喜歡搞生理學。萊布尼茨則是微積分的發明人之一,是柏林科學院的創始人;

其三,與人工智能直接相關的一些計算機技術, 和萊布尼茨有直接關聯。他在1764年于巴黎建造的乘法運算機(改進于帕斯卡的運算機),以及他對于二進制的推崇,都是為計算機史家所津津樂道的實例。


然而,筆者卻并不認為這些理由能夠充分地擔保他們會贊同機器智能的可能性。


首先,成為計算機技術的先驅并不等于成為人工智能的先驅。一個計算機科學家完全可能拒絕實現人類水平上的機器智能的可能性,而僅僅把計算機視為人類的工具。因此,萊布尼茨對于帕斯卡運算機的改進, 并不擔保他會成為AI的同道;


其次,他們在數學和自然科學方面的貢獻,也并不擔保他們會贊成機器智能的可實現性(理由由上一點類推);


第三,是否贊同符號AI,和是否處在“唯理派”陣營中,并無直接關聯。這是因為,唯理派的立場僅僅是“心智活動的實質在于符號表征層面上的推理活動”,但對于符號AI來說,更為有用的一個論題則是“任何被恰當編程的、符號表征層面上的推理活動都是心智活動”。很顯然,從邏輯上看,即使已經有了前面這個立場,也并不擔保后一個論題就能夠被推出。


進而言之,笛卡爾和萊布尼茨還各自提出了一個論證,明確反對機器智能的可能性。


先從笛卡爾說起。我們知道,在“身心關系”問題上笛卡爾是二元論者,即認為人是占據廣延的物質實體和不占據廣延的靈魂實體的復合體。而在關于動物的本性的問題上,他倒是一個比較徹底的機械唯物論者,即認定動物只是“自動機”,毫無靈魂。從這個立場出發,他顯然是不可能認為我們有可能制造出具有人類智能水平的機械裝置的,因為從他的二元論立場來看,“智能”——或者說“靈魂”——的形式,和物理世界的配置形式無關,通過改變后者,我們是不可能得到前者的。不過,這樣的一種反機器智能的論證本身就已經預設了二元論立場,因此非二元論者未必會買他的賬。好在笛卡爾還有一個形而上學負荷更少的反機器智能論證。此論證見于其名著《方法論》:


假若真有這樣的一些機器,其具有猿猴(或其他缺乏理性的動物)的所有器官和外形,那么,恐怕我們就毫無理由斷言,這些機器并不完全具有那些被模仿動物的本性。但請再試想這樣一種情況:假若有一些機器,其在技術允許的范圍內竭力仿造我們的身體,并試圖模擬我們的行為,那么,它們是否為真人?答案是否定的,而且我們總能通過兩個途徑來獲得這個否定性的答案。第一個途徑是:我們會發現,它們總不會使用語詞和記號,或像我們那樣把語詞和記號組合在一起,以便向他人傳達出我們的思想。為何這么說呢?我們可以設想一臺從表面上看來可以表達語詞的機器,甚至可設想,其表達的語詞是匹配于一些將最終導致相關器官變化的身體行動(比如,當你觸及其某一部分的時候,它就會問你,是不是想和它說些啥;而當你觸及其另一部分的時候,它就會大哭,抱怨你弄疼了它)。但即使如此,它卻無法給予語詞以不同的排列方式,以便應對人們在面對它時所能夠說出的種種不同的話——盡管最笨的人也能夠勝任這個任務。第二個途徑是:盡管這些機器能夠執行很多任務,并在執行某些任務的時候表現得比人類更為出色,但它們必定會在執行另外一些任務時出洋相。這樣一來,我們就會發現,這些機器并不是根據知識來運作的,而是根據其器官部件自身的傾向來運作的。這又是為何呢?因為人類理性乃是在諸種問題語境中皆有用武之地的萬能器具,而這些器官部件呢, 則只不過是分別為特定的問題語境而定制的專門器具。這樣一來,如果我們要讓這些機器能夠對付所有的問題語境的話,那么我們就得讓它配備有大量的器官部件,其中的每一個都對應著一個特定的語境——否則,它就無法像我們人類運用理性所做的那樣,應付生命中層出不窮的種種偶然事態。很顯然,從實踐角度看,這樣的機器設計思路是行不通的。


笛卡爾的這個論證其實可以分為兩個部分。第一部分的要點是:從“機器能夠表達語詞”出發,我們推不出“機器能夠根據環境的變化而調整語義輸出策略”,而后者則被笛卡爾視為“真正智能存在”的充分必要條件。我認為這個論證比較弱,因為是否能夠根據環境的變化調整語義輸出策略,乃是一個程度性的概念,而不是一個非黑即白的概念。在今天的AI界,能夠根據環境的變化而有限調整語義輸出策略的程序,并不是做不出來,在這個問題上笛卡爾的確太低估后世AI工程師的能力了。若按照笛卡爾的標準,這些程序的問世顯然就意味著機器智能的實現——但直覺卻告訴我們,這些程序的表現依然和真人智能行為大有差距。由此看來,在第一個論證中,笛卡爾關于“真正智能”的標準設置過低,這就使得他關于機器智能之不可能性的論斷很容易被反例所駁倒。


笛卡爾的第二個論證的要點是:如果我們真的要做出一臺“智能”機器,我們就需要把所有的問題解決策略預存在其內置方法庫中,但在實踐上這是不可能的。和前一個論證相比,我認為這個論證質量高得多,因為笛卡爾在此已經預見到了符號AI的核心思路——在機器中預置一個巨大的方法庫,并設計一套在不同情境下運用不同方法的調用程序——盡管符號AI的正式出現(1956年)乃是笛卡爾的《方法論》出版(1637年)三百多年之后的事情了。另外,笛卡爾在此也天才地預見到了,真正的智能將體現為一種“通用問題求解能力”,而不是特定的問題求解能力的一個事后綜合。這種通用能力的根本特征就在于:它具有面對不同問題語境而不斷改變自身的可塑性、具有極強的學習能力和更新能力,等等。這種“智能”觀,也比較符合我們一般人的直覺。但笛卡爾的問題卻在于,他認為這種“通用問題求解能力”是人類所獨有的。但相關論證呢?很顯然, 從“所有可被我們設想的機械不具有通用問題求解能力”這個前提出發,我們是得不出笛卡爾所欲求的如下結論的:所有機械都不具有通用問題求解能力。前提和結論之間的跳躍性在于, 哲學家關于機械制造可能性的設想很可能是有局限的,甚或會充溢著培根所說的“四假相”。在這里,笛卡爾顯然對自己的想象力過于自信了。不過,自信歸自信,他對人類理性和機器智能之間差異的提示,的確也算是一條攻擊機器智能可能性的思路。在二十世紀,該路數最重要的后繼者乃是美國哲學家德瑞福斯,盡管他本人并不是一個笛卡爾式的唯理派哲學家,而是一位現象學家(請參看他的著作《計算機依然不能夠做什么?》)。


再來看萊布尼茨。從萊布尼茨的整個形而上學背景來看,他對于機器智能的抵觸其實應當比笛卡爾還大。笛卡爾畢竟還是半吊子的機械唯物主義者,可萊布尼茨的“單子論”卻是徹徹底底反唯物主義的。在他看來,構成世界的最終實體,乃是一些缺乏廣延、形狀和可分性的精神性單子,而物質世界所賴以存在的空間關系乃是通過諸單子的彼此知覺而產生的。站在這個立場上看, “通過機械的空間配置來產生智能”這種說法,自然就完全無法和萊布尼茨的整個哲學立場相容了。


不過,和笛卡爾一樣,萊布尼茨也提出了一個不那么依賴其形而上學預設的反機器智能論證(簡稱為“磨坊論證”),見于《單子論》第十七節(因為《單子論》篇幅很短,所以我們這里不再給出引文的頁碼):


此外也不能不承認,知覺以及依賴知覺的東西, 是不能用機械的理由來解釋的,也就是說,不能用形狀和運動來解釋。假定有一部機器,構造得能夠思想、感覺、具有知覺,我們可以設想它按原有比例放大了,大到能夠走進去,就如同走進一個磨房似的。這樣,我們察看它的內部,就會只發現一些零件在彼此推動,卻找不出什么東西來說明一個知覺。

因此,應當在單純的實體中,而不應當在復合物或機器中去尋找知覺。因此,在單純實體中所能找到的只有這個,也就是說,只有知覺和它的變化。也只有在這里面,才能有單純實體的一切內在活動。


我們前面剛提到,在笛卡爾看來,外部行為和人類一樣具有靈活性和變通性的推理機器是造不出來的。和他的論證策略不同,萊布尼茨則玩弄了一把“欲擒故縱”的把戲,即預先假定我們已經造出了這樣的一臺機器。而他的論證要點則是:即使該假定本身是真的,從中我們也推不出真正的智能的存在。因為在萊布尼茨看來,真正的智能需要知覺的介入,而在機械運作的任何一個層面,我們都看不到這樣的知覺的存在。所以,即使一臺機器所表達出來的“輸入—輸出關系”和人的“輸入—輸出關系”完全吻合,前者依然不能算作真有智能的。


但筆者認為這個論證有很大的問題。我們姑且可以同意萊布尼茨的前提,即“知覺的存在對于智能的存在來說是不可或缺的”。但是,僅僅通過對于智能機械的內部觀察, 我們又如何確定知覺是否存在于這臺機器中?知覺本身——而不是伴隨著知覺的外部物理運作——畢竟不是掉在地上的懷表和掛在墻上的背包,是可以在第三人稱立場上被經驗地觀察到的。換言之,從“我們觀察不到知覺的存在”,我們實在推不出那個對萊布尼茨有用的結論:知覺本身不存在。按照他的標準,我們甚至不能說人類也是有智能的,比如,我們不妨設想把萊布尼茨本人的大腦放大到上海世博園區那么大,并同時保持其中各個部件之間的比例關系不變。我們若進入這個超級大腦,看到的恐怕也只會是一些純粹的生物化學反應,而觀察不到知覺。然而,由此我們就能夠推出萊布尼茨的大腦沒有知覺,沒有靈魂嗎?這顯然是荒謬的。


盡管這個論證很荒謬,但是它卻直接引導了后世的塞爾提出了反對機器智能的“漢字屋論證”,因此也是具有一定的思想史地位的。


霍布斯:符號AI之真正哲學前驅

霍布斯是近代唯物主義哲學家的代表人物之一,但這并不是他在這里被我們提到的首要原因。這是因為,盡管AI的理想(即制造出某種智能機器)必然會預設某種版本的唯物主義, 但反過來說,從唯物主義的哲學立場中我們卻未必能夠推出AI的理想。說得更清楚一點,一種關于AI的唯物主義必須得滿足這樣的條件:它除了泛泛地斷定心理層面上的人類智能行為在實質上都是一些生物學層面上的物理運作之外,還必須以某種更大的理論勇氣,去建立某種兼適于人和機器的智能理論,以便能指導我們把特定的智能行為翻譯為某些非生物性的機械運作。在這方面,拉·美特里(他可能是近代西方哲學史中最著名的唯物主義者)對于AI的價值恐怕就要小于霍布斯,因為前者關于“人(是)機器” (L'homme Machine)的主張,實質上并沒有直接承諾智能機器實現的可能性。


毋寧說,拉·美特里只是給出了一個關于人的生物屬性和心理屬性之間關系的局域性論題,其抽象程度要低于符號AI的基本哲學假設:被恰當編程的符號運算,就是真正智能活動的充分必要條件(我們簡稱此假設為“物理符號假設”,其提出者是AI專家司馬賀和紐厄爾)。


霍布斯就不同了。與迷戀醫學和解剖學的拉·美特里不同,他更迷戀的乃是抽象的幾何學,并致力于給出一種關于人類思維的抽象描述。他在其名著《利維坦》中寫道:


當人進行推理的時候,他所做的,不外乎就是將各個部分累加在一起獲得一個總和,或者是從一個總和里面扣除一部分,以獲得一個余數。……盡管在其他方面,就像在數字領域內一樣,人們還在加減之外用到了另外一些運算,如乘和除,但它們在實質上還是同一回事情。……這些運算并不限于數字領域,而是適用于任何可以出現加減的領域。這是因為,就像算術家在數字領域談加減一樣,幾何學家在線、形(立體的和平面的)、角、比例、倍數、速度、力和力量等方面也談加減;而邏輯學家在做如下事情的時候也做加減:整理詞序,把兩個名詞加在一起以構成斷言,把兩個斷言加在一起以構成三段論,或把很多三段論加在一起以構成一個證明,或在一個證明的總體中(或在面對證明的結論時)減去其中的一個命題以獲得另外一個。政治學的論著者把契約加在一起,以便找到其中的義務;法律學家把法律和事實加在一起,以找到個體行為中的是與非。總而言之,當有加減施加拳腳的地方,理性便有了容身之處,而在加減無所適從的地方,理性也就失去了容身之所。


盡管霍布斯并不可能了解后世AI專家所說的“物理符號系統”的技術細節,但從這段引文看,他已經很清楚地意識到了,看似復雜的人類的理性思維,實際上是可以被還原為 “加” 和“減”這兩個機械操作的。這個講法,在精神上和經典AI的思想是很接近的(而我們今天已經知道了,所謂的“加法”和“減法”,其實都可以通過一臺萬能圖靈機來加以模擬)。不難想見,如果霍布斯是對的話,那么“加”和“減”這樣的機械操作就成了理性存在的充分必要條件——也就是說,一方面,從加減的存在中我們就可以推出理性的存在,而在另一方面,從前者的不存在中我們也就可以推出后者的不存在(正如引文所言,“當有加減施加拳腳的地方,理性便有了容身之處,而在加減無所適從的地方,理性也就失去了容身之所”)。很明顯,如果我們承認這種普遍意義上的加減的實現機制不僅包含人腦,也包含一些人造機械,那么他對于“理性存在”的充分必要條件的上述表達,也就等于承諾了機器智能的可能性。換言之,霍布斯的言論雖然沒有直接涉及人工智能,但是把他的觀點納入到人工智能的敘事系統之內,在邏輯上并無任何突兀之處。另外,就“哪些知識領域存在有加減運作”這個問題,霍布斯也抱有一種異常開放的態度。根據上述引文,這個范圍不僅包括算術和幾何學,甚至也包括政治學和法律學。這也就是說,從自然科學到社會科學的廣闊領域,相關的理性推理活動竟然都依據著同一個機械模型!這幾乎就等于在預報后世AI專家設計“通用問題求解器”的思路了。也正鑒于此,哲學家郝格蘭才把霍布斯稱為“人工智能之先祖” 。而考慮到他的具體建樹和符號AI更為相關,筆者更情愿將其稱為“符號AI之先祖”。


但需要指出的是,符號AI的基本哲學預設—— “物理符號假設”——只是在霍布斯那里得到了一種弱化的表達,因為該假設原本涉及的是一般意義上的智能行為和底層的機械操作之間的關系,而霍布斯則只是提到了理性推理和這種機械操作之間的關系。換言之,他并沒有承諾理性以外的心智活動——如感知、想象、情緒、意志等——也是以加減等機械運作為其存在的充分必要條件的。而從文本證據上來看, 在正式討論理性推理之前,《利維坦》對于“感覺”、“想象”、“想象的序列”等話題的討論,也并未直接牽涉到對于加減運作的討論。


那么,如何把一種機械化的心靈觀從理性領域擴張到感性領域,并由此構建一種更為全面的、并對AI更有用的心智理論呢?這關鍵的一步是由休謨走出的。有意思的是,走出這一步,卻使得他和AI陣營中相對新潮的一派——聯結主義——攀上了親。


休謨:聯結主義的哲學前驅

在此筆者默認讀者已經具有了休謨哲學的背景知識,并將不再過多依賴他自己的哲學術語來重構他的思想。筆者下面的重構將主要依賴當代認知心理學的語言框架。


從認知心理學的視角來看,休謨的心智理論的基本思想是:一種更為全面的心智理論應當彌補前符號表征層面和符號表征層面之間的鴻溝,否則就會失去應有的統一性(而缺乏這種統一性,恰恰就是霍布斯的心智理論的毛病)。而他采取的具體“填溝”策略則是還原論式的,即設法把符號表征系統地還原為前符號的感覺原子。在《人性論》中,這些感覺原子被他稱為“印象”,而符號表征則被稱為“觀念”。


更具體地說,他實際上是把整個心智的信息加工過程看成是一個“自下而上”的進路:


第一,人類的感官接受物理刺激,產生感覺印象。它們不具有表征功能,其強度和活躍度是物理刺激自身強度的一個函數(不過休謨不想詳細討論這個過程,因為他覺得這更是一個生理學的題目,而不是他所關心的心理哲學的題目)。


第二,感覺印象的每一個個例(token)被一一輸入心智機器,而心智機器的第一個核心機制也就隨之開始運作了,這就是抽象和記憶。記憶使得印象的原始輸入得以在心智機器的后續運作中被妥善保存,而要做到這一點,記憶機制就首先需要對印象的個例加以抽象,以減少系統的信息儲存空間,并以此提高系統的工作效率。這種抽象的產物乃是“感覺觀念” 。它們具有表征功能,其表征對象就是相應的印象個例。在這個抽象形式中,每一個原始個例的特征都被平均化了,而其原有的活躍程度則被削弱。


第三,每一個感覺觀念本身則通過第二個心智核心機制——想象力——的作用,得到更深入的加工。想象力的基本操作是對感覺觀念加以組合和分解(類似于霍布斯所說的加減運算),而這些組合或分解活動所遵循的基本規律則是統計學性質的,也就是說,觀念A和觀念B(而不是A和C)之所以更有機會被聯想在一起,乃是因為根據系統所記錄的統計數據,A的個例和B的個例之間的聯接實例要多于A和C之間的聯接實例。由此一來,一個觀念表征的所謂“含義”,在根底上就可被視為對原始輸入的物理性質的一種統計學抽象,而觀念表征之間的聯系,則可被視為對輸入之間實際聯系的一種統計學抽象。當然,休謨本人并沒有使用筆者現在用的這些術語,他只是提到,A和B的聯接之所以被建立,乃是“習慣”使然——但這只是同一件事情的另一個說法。從技術角度看,一個模式之所以會成為習慣,就是因為該模式的個例在系統的操作歷史已經獲得了足夠的出現次數——或者說,關于x的“習慣”的強度,乃是關于x的個例的出現次數的函數。


但以上所說的這些,和AI又有何關系?


休謨并沒有直接討論人工智能系統的可能性,也許他從來都沒有想過這個問題。不過,他對于人類心智模型的建構,卻非常契合于后世AI界關于聯結主義進路的討論。那什么叫 “聯結主義”呢?這是AI學界內部一個相對新穎的技術流派,從上世紀八十年代開始風靡。其核心思想是:若要建立一個專門用于“模式識別”的人工智能系統,不必像經典的符號AI所建議的那樣,從上至下地構建出一個內置的方法庫和方法調用程序,而可以采納一個新的技術進路:用數學辦法建立起一個人工神經元網絡模型,讓該模型本身具有自主學習功能。這些人工神經元的底層計算活動本身并不具有符號表征功能,而只有在對整個網絡的整體輸出做出一定的統計學抽象之后,我們才能夠將這個總結果映射到一個語義上。


今日的聯結主義進路和休謨的心智模型之間的共通處體現在二者都嚴厲拒絕了傳統的符號AI的一層重要意蘊:我們可以先把智能體的問題求解策略盡量完美地再現出來,然后再設法把這些理性反思的產物程序化,換言之,先有符號表征描述,爾后才能夠有前表征的底層運算。很顯然,該想法本身就預設了:的確存在著一個為所有智能體的同類問題求解過程所共享的一般符號描述,而不同智能體實現這個抽象描述的不同運算過程,實際上只是同一輪月亮倒影在不同山川中的不同月影而已。但在休謨主義者和聯結主義者看來,那一輪月亮的實在性不是被給定的東西,而至多是被構造出來的東西。用休謨的話語框架來說,那些高高在上的符號(觀念), 只不過就是前符號的感覺材料(印象)在心理學規則(特別是聯想機制)的作用下,所產生的心理輸出物而已。考慮到智能系統本身的輸入歷史將決定性地影響其最后形成的符號體系的結構,兩個彼此不同的輸入歷史就必然會導致兩個不同的觀念表征系統——這樣一來,不同智能系統在不同環境中所執行的不同的底層運作,就很難被映射到一個統一的符號層面上,并由此使得符號層獲得起碼的自主性和實在性。與休謨相呼應,在后世的聯結主義模型建構者看來,人工神經元網絡的拓撲學構架在很大程度上也是在前符號表征層面上運作的,而被輸出表征的性質,則在根本上取決于整個網絡“收斂”之前訓練者所施加給它的原始輸入的性質。換言之,兩個識別任務相同但訓練歷史不同的人工神經元網絡的輸出結果,并不必然會(且往往不會)指向同一個語義對象。后者就像休謨眼中的“觀念” 一樣,在整個人工神經元網絡構架中處于邊緣位置。


另外,休謨關于觀念之間聯系產于“習慣” 的觀點,也部分地吻合于聯結主義進路對于人工神經元節點間的聯系權重的賦值方式,其細節筆者就不再加以贅述了。但由于科學視野的局限,休謨并沒有在神經科學的層面上重新理解心智對于前符號信息的加工過程:而他所給出的描述成果只是采用了模糊的哲學語言,沒有使用定量的數學模型。這些地方也都正是今日的聯結主義超越于休謨主義之處。



康德:“從上至下”進路和“自下而上”進路的整合者

稍有西方哲學史常識的讀者都知道,康德在《純粹理性批判》中提出了一套整合經驗論和唯理論的心智理論。關于他的這套整合策略,哲學史研究方面的文獻早已是汗牛充棟了。但如何跳出哲學史敘事的慣常視角,從AI的角度來重新解讀康德的這種整合策略呢?在這方面,美國AI科學家侯世達、澳大利亞哲學家查爾莫斯等人聯合撰寫的論文《高階知覺、表征和類比——對于人工智能方法論的批評》就頗有參考價值。文章起頭部分有一段評論直接和康德相關:


很早人們就知道知覺活動是在不同層面上進行的。伊曼紐爾·康德將心智的知覺活動劃分為兩個板塊:其一是感性能力,其任務是揀選出那些感官信息的原始輸入,其二是知性能力,其任務是致力于把這些輸入材料整理成一個融貫的、富有意義的世界經驗。康德并不對感性能力很有興趣,并將主要精力投向了知性能力。他孜孜以求,最終給出了一個關于高階認知的精細模型,并通過該模型將知性能力區分為十二個范疇。盡管在今天看來,康德的這個模型多少顯得有點疊床架屋,但他的基本洞見依然有效。依據其洞見,我們可以將知覺過程視為一道光譜, 并出于方便計, 將其區分為兩個構成要素。大約和康德所說的感性能力相對應,我們劃分出了低階知覺。這主要指的是這樣一個過程:對從不同感官通道搜集來的信息進行早期處理。另外,我們還劃分出了高階知覺——通過這種知覺,主體獲得了對于上述信息的一種更為全局性的視角,并通過和概念的溝通而抽象出了原始材料的意義,最終在一個概念的層次上使得問題求解的情景具有意義。這些問題求解情景包含:對象識別、抽象關系把握,以及把某個具體環境辨識為一個整體。


從這段引文看,康德對于AI科學家的啟發就在于:知覺的“從上至下”進路(“知性”或“高階知覺”)和“自下而上”進路(“感性”或“低階知覺” )都是不可或缺的,因此一個更全面的人工認知模型將囊括這兩者。但這里的問題是:憑什么說兩者都不可或缺呢?或者說,僅僅遵從休謨式的“自下而上”思路,或者僅僅遵從霍布斯式的“從上至下”思路,為何就行不通?


康德本人對于這個問題的解答是:如果我們僅僅遵從“自下而上”的思路,我們就很難解釋,為何人類的心智僅僅憑借經驗聯想, 就能夠構成普適性的“先天綜合判斷”(回答不了這個問題,我們將陷入對于普遍性知識的懷疑論);如果我們僅僅遵從“從上至下”的思路,我們很難解釋,為何我們心智機器的最終輸出能夠和外部輸入發生關聯(回答不了這個問題,我們將陷入“觀念實在論”或“哲學獨斷論”)。不過,康德的這些解釋帶有過重的知識論氣味,而且還負載了很多哲學預設(比如,他預設“哲學懷疑論”和“哲學獨斷論”肯定都是錯的)。站在AI或者認知科學的立場上看,我們需要的,其實是一種哲學預設更少的對于整合式路徑的辯護方案。


侯世達等人的相關辯護方案則機智地繞開了“先天綜合判斷”這個麻煩話題,而以“類比”為切入點。他們的問題是:如果要在一個人工智能系統里實現“類比推理”的話,編程者的編程思路, 到底要遵循“自下而上”的進路,還是“從上至下”的進路呢?或是二者的整合進路?


那么,為何要以“類比”為切入點呢?這當然是因為類比推理對于提高智能系統的工作效率很重要。不難想見,一個智能系統若能夠在表征A和表征B之間建立起合適的類比關系的話,那么只要系統已經預存了一套關于表征B的問題求解策略C,那么它就能夠用C來解決關于表征A的新問題。系統由此獲得的問題求解效率,自然將大大高于其從頭搜索C的效率。類比推理的一般形式就是:

不過,要建立起這樣的一個類比關系,卻不是易事。請考慮對如下類比關系的建構過程:

類比一:孔明之于劉玄德,可類比于管仲之于齊桓公。


假設一個智能系統已經把握了“管仲”、“齊桓公” 、“孔明”和“劉玄德”這四個表征的含義(但下面我們將馬上提到,即使要滿足這個假設,也非易事。另外,關于什么叫表征的“含義” ,我們暫且不表),但這不等于它很快就能夠建立起我們所欲求的這種類比關系。不難想見,系統的知識庫里還存有很多別的表征,比如“張飛” 、“蔣干”、“貂蟬”、“董卓”,等等。換言之,在建立“類比一”之前,系統實際上需要做一道選擇題:

孔明之于( ?),可類比于管仲之于( ?)。

A. 張飛、B. 蔣干、C. 董卓、D. 貂蟬、E. 齊桓公……


而面對這些雜亂無章的選擇項,系統完全也可能建立起錯誤的類比關系,比如:類比二:孔明之于董卓, 可類比于管仲之于貂蟬。


怎么避免這一點呢?休謨主義者在面對這個問題時或許又會祭出“習慣”的法寶,也就是說,如果系統檢測到“孔明—劉玄德”關系和“管仲—齊桓公”關系有比較多的共現次數的話,那么系統就會在“孔明—劉玄德”關系和“管仲—齊桓公”關系之間建立起一種更高階的類比關系。但這種統計學的策略有兩個根本缺陷:第一,很多對問題求解有用的新類比關系,往往是缺乏統計數據支持的(否則就談不上是新類比關系);第二,該策略對于系統輸入歷史的這種高度依賴性,將大大削弱系統對于輸入信息的主動鑒別能力。比如,若系統恰好發現“貂蟬—董卓”關系和“管仲—齊桓公”關系有比較多的共現次數的話,那么它就會隨波逐流地在這兩者之間建立起一種更高階的類比關系。但如此一來,系統又如何有機會對這種錯誤的建構做出主動修正呢?


面對同樣的問題, 霍布斯主義者的表現或許會更為狼狽。霍布斯—經典AI思想路線的要點就在于,整個認知系統必須在符號表征的層面上運作,換言之,他們都默認了正確表征的存在已然不成為問題。但在真實的“類比關系匹配”任務中,成為問題的,往往就是如何找到正確的表征形式。


再以“孔明之于劉玄德,可類比于管仲之于齊桓公”為例。現在我們暫且遵循弗雷格以來的語言哲學傳統,把一個詞項的含義看成是把該詞項映射為一個外部對象的函數。比如,“孔明”的含義,就是把該詞項映射為歷史上真實存在過的那個人的函數。這樣的映射方式肯定很多,比如你可以將“孔明”視為“劉禪的亞父”、“三國時蜀國的丞相”、“《隆中對》的作者”、“劉備最有名的文臣”,等等(其中的每一個都能夠把“孔明”映射到同一個對象上去)。而現在的問題就是,若要建立“孔明之于劉玄德,可類比于管仲之于齊桓公”這個類比關系,我們需要的又是其中怎樣的一種表征形式呢?依據一般中國人的歷史常識來判斷,答案顯然就是“劉備最有名的文臣”,因為這樣我們就可以將其匹配于管仲的表征形式“齊桓公最有名的文臣”,并在這種匹配的基礎上建立起我們所需要的類比關系。該匹配流程可示意如下:

但麻煩的是,我們又到底如何能在“劉備—孔明”關系屬性集以及“管仲—齊桓公”關系屬性集中,找到一個為兩集所共享的成員呢?很顯然,這個關鍵性的表征形式并不會自動跳出來讓系統注意到自己。而要讓系統用野蠻搜索的方式來自上而下地逐一尋找它,則又顯得過于耗時。因此,系統就需要用某種自動搜索程序來發現它。欲建立這種搜索程序,我們就得為系統設計出一個低層次人工知覺能力以模擬康德的“感性”能力,并由此迅速檢索與任務求解更為相關的表征形式;同時,讓高層次的人工知覺能力(類似于康德的“知性”能力)實時地參與其中,構成高—低互動。換言之,無論是霍布斯—經典AI的道路,還是休謨—聯結主義的道路,都無法引導我們設計出能夠正確地建立起所需類比關系的系統。只有康德式的整合式策略,才是我們努力的方向。


在康德哲學的啟發下,侯世達等建立了一個專門的類比關系搜索程序,名字叫“照貓畫虎”(Copycat)。“照貓畫虎”的工作環境是一大串字母串,每一串字母串構成了系統的一個原始輸入,比如 “abc”、 “iijjkk”、 “eejjkk” 等。系統的任務是找出每個輸入的內部結構規律,并在此基礎上將一個輸入看成是另一個輸入的類比物。比如,“abc”和“iijjkk”之間就有這種類比關系,因為前者由三個單元“a”、“b”、“ c”構成,每個單元的右邊都是自己在字母表中的后繼者(同樣的關系也存在于“ii” 、“jj”、“ kk”之間)。很顯然,同樣的類比關系就不存在于“abc”和“ eejjkk”之間,因為“e”的后繼不是“j”,而是“ f”。請看如下示意圖(筆者根據原文精神自繪):

而要讓系統也能夠辨識出這種類比關系,我們就得一一建立系統中的如下構成要素:


  1. 人工“感性”能力。也就是說,系統的輸入系統必須有能力辨識出每一個字母串的記號構成,并辨識出一個輸入和另一個輸入之間的界限。這一步比較簡單,沒有什么可以說的。


  2. 人工“想象力” 。在康德的心智理論中,“想象力”是介于“感性”和“知性”之間的一種能力,其任務是對感官輸入進行初步處理,以便為知性的高級操作做準備。從分類上看,它可以從屬于一種更為寬泛的“感性” (實際上,上文所談的“感性”就已包含了“想象力”)。在“照貓畫虎”程序中,這就對應于這樣一個設計:系統配置有一些自動運作的“短碼算子” (codelet),其任務是對“人工感性”輸送來的信息進行初步結構分析。這就為人工范疇表的運作提供了基礎。


  3. 人工“范疇表”。康德心目中的知性范疇表,大致對應于“照貓畫虎”程序中的“滑溜網”(slipnet)。所謂“滑溜網”,就是由不同的范疇所結成的一個網絡,其中的每一個范疇都對應著一個更低層面上的短碼算子(比如,若在更低的層面上有“同一性短碼算子” ,那么在“滑網”中就必定有一個“同一性”范疇與之呼應)。該網和諸短碼算子之間的相互協作方式乃是這樣的:一方面,一個短碼算子的工作輸出的性質構成了與之對應的那個網絡范疇節點的激發條件(這是一個由下而上的進路);另一方面,一個網絡范疇節點的激發狀態又反過來決定了系統的資源應當傾向于那些短碼算子(這是一個從上至下的進路)。


綜上所述,諸“短碼算子”的自主運作為范疇節點的啟動提供了條件,而后者的啟動又會反過來指導前者的資源分配方向。兩個層面相輔相成,合力完成了建立類比關系的任務。就這樣,康德的名言“概念無直觀則空,直觀無概念則盲”,在AI時代便獲得了這樣一種全新的詮釋形式:“滑溜網無短碼算子則空,短碼算子無滑溜網則盲”。這種“無心插柳柳成蔭”的效果,恐怕是康德本人也始料不及的。


筆者認為,康德式的“從上至下”和“自下而上”相互整合的進路,其啟發意義不僅局限于類比模型的構建,而且還可以被運用于其他的AI研究領域,比如機器視覺。但若要真正地做出這樣一種推廣,僅僅按照“照貓畫虎”程序的模式去從事研究,恐怕還遠遠不夠。比如,在 “照貓畫虎”程序中,系統所處的人工環境本身就已經是一個被高度數理化的世界(這個環境所提供的有效輸入,都已經是字符串了)。這固然便利了程序設計員接下來的程序設計流程,卻大大歪曲了康德的如下原初設想:人類的原始認知境遇,乃是一片沒有數理描述形式的“混沌”——換言之,數理描述形式本身只可能是心智運作的產物,而不可能是被自然給予的。但如何能夠設計出一個更基本的程序,以便讓系統能把一個實際的工作環境自動轉化為一個數理化的環境模擬形式呢?恰恰在這個問題上,“照貓畫虎”程序的設計思路采取了回避策略。由此看來,侯世達等人的這項工作雖然很精彩,但這也只是在一個方向上體現了康德哲學的某種理論意圖,而絕未窮盡康德思想庫中的寶藏。


總 結

筆者希望本文的討論,能夠帶給讀者以下三點啟示:


第一,看似新銳的“AI哲學”,其實并不是嶄新的東西,而的確和西方哲學史有著密切的聯系。從抽象的角度看,哲學思辨切入人工智能的方向主要有兩個:其一,機器智能的實現是否先天可能?其二,怎樣的心智理論才能夠為機器智能的實現提供更好的參照系?而從本文的哲學史梳理結果來看,笛卡爾、萊布尼茨等哲學家實際上已經超越了自己時代的科學發展的限制,明確提出了第一個問題,并給予了其以否定性的應答(不過本文的討論也已經表明了, 他們的反機器智能的論證都是有問題的)。而霍布斯則間接地肯定了機器智能的可能性。休謨和康德雖未正面談論該問題,但是他們各自提供的心智理論,卻分別構成了AI中的聯結主義進路和“上下整合”進路的哲學前驅,并由此為上述第二個問題提供了答案。從某種意義上說,今日在英美方興未艾的AI哲學, 依然沒有從根底上跳出這兩個問題所規定的理路。由此看來,十七、十八世紀歐洲哲學家對于相關問題的前瞻能力,乃是令人驚異的。


第二,雖然經典的AI進路包含著對于數理模型的高度推崇,但同樣推崇數理描述方式的“唯理派”哲學家,卻往往對“機器智能”持有敵意。這是因為,對于“機器智能”的贊成不僅僅依賴于對于數理模型的推崇,而且還依賴于一種對于身心關系的唯物主義觀點。但由于種種文化、宗教因素,唯理派哲學家往往在身心關系問題上持反唯物主義立場。從這個角度看,近代唯理派和經典AI之間的親緣關系,并沒有一些論者(如德瑞福斯在其《計算機依然不能做什么?》中)所說的那么強。


第三,作為十七、十八世紀歐洲哲學的集大成者,康德雖沒有直接討論過機器智能的可實現問題,但是他的心智理論對于AI的啟發意義卻依然不容小覷。此理論的要點就是把“從上至下”和“自下而上”的兩個認知進路加以打通,將其整合在一個更大的心智模型里。筆者認為,這種整合式的進路要比單純的“自下而上”進路或“從上至下” 進路更具有解釋力,因此應當是未來AI建模的一個主要參照模式。但如何把這種哲學啟發轉化為更具體的編程工作,卻會面臨著一個巨大的理論—技術障礙,即如何把系統所在的非數理化的實際工作環境加以實時的數字化模擬(這種模擬必須由系統自己完成, 而不能由程序員事先輸入)。在這個問題上, 侯世達等人的“照貓畫虎”程序并沒有為我們提供一個完美的工作模板。總之,更艱巨的任務還在等待AI專家們去完成。


原載于復旦學報(社會科學版)2011年第1期。部分圖片選自網絡。

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容