這篇也是催編輯快審稿催到我自己不耐煩,所以放出來的。
所以啦,不催編輯快審稿的作者都不是合格的作者。
1
鐳宇說,雖然我設計的AI機器人成功通過了實驗室的圖靈測試,但依然無法通過他所設置的泛圖靈測試,所以還要繼續改進。
圖靈測試:將被試機器人與人單獨相處,人無得使用任何方式查看被試機器人的內部,雙方保持語言互動一段時間后,如果人無法區分自己所面對的到底是機器人還是人,那么就說明這臺機器人已經足夠接近人類。
泛圖靈測試:將被試機器人放到人類社會中,與人類保持接觸一同生活,經歷一段時間后,如果沒有人發現這個機器人有什么超出人類行為合理程度范圍的行為,沒有任何不正常的怪異之處,沒有人能認出來它是一臺人工智能機器人,那么才能說這臺機器真的已經足夠接近人類了。
看來,我只能銷毀它,保留核心神經網絡模塊重頭來過了。
2
與大量參與圖靈測試的D級工作人員交流后,發現我的AI機器人的最大問題在于,無論在什么環境下,它的回復都沒有感情。
機器人無法反饋出悲傷或者喜悅的心情,無論面部表情再怎么逼真,其對話中依然缺少情感的流露,從而是空洞的。
我覺得,我有必要給我的機器人增加一個情感模塊。
但,情感到底是什么呢?
3
大數據組的瑞卡把一份結合網上所有人類活動的情緒訓練集給了我。
人的情緒反饋模式被分解為13大類97小類,對應了各種性格、身份與職業的人在各種可能的情況下的情緒反應。
重新訓練我的機器人的神經網絡花了我一周時間,這一周里我心情忐忑。
斐斐快完成論文,馬上就能畢業了,而我還沒完成我的畢業設計,這讓我很不安。
4
D級工作人員告訴我,他們也說不清楚到底哪里不對,但我的機器人就是很容易讓他們識別出來。
似乎是有一種“欲蓋彌彰的虛假”——這是他們的原話。
我不知道哪里錯了。
難道是神經網絡過擬合?但訓練的網絡明明通過了驗證集的校驗啊。
哎……只能銷毀這枚人工腦,保留核心神經網絡模塊,重新再設計一遍了。
真是頭疼……
5
斐斐的話給了我一個啟發。
神經網絡模擬出來的情緒,缺乏一種靈性。它只是在模擬情緒,而并非生成情緒。
雖然神經網絡可以模擬出任何形式的函數,但要生成出新的函數還是有難度。
所以,難道這道檻就過不去了么?
拉比特和小糖一定會嘲笑我的吧……
6
我真是個天才!
情緒的本質或許我并沒有分析出來,畢竟我不是腦神經科學專業的,也不是心理學專業的。但我卻發現了一種全新的人工智能方案,可以生成屬于AI的情緒!
如果將整個神經網絡的學習過程比作一個降溫的過程,隨著學習的深入,系統溫度降低,整個網絡最終被凍結在一個最佳的鏈接狀態,從而具有一種長期記憶與反饋模式。那么情緒就是從某個網絡區域開始的逆向升溫過程!
隨著情緒的加劇與蔓延,越來越多原來已經凍結下來的神經鏈接被重新激活,甚至是被升溫效應而重新錯配。
而這恰恰是我此前一直不敢去做的。這枚人造腦已經被銷毀了137次,我重來了137次,都保留了核心神經網絡模塊,就是因為這個模塊是好不容易才訓練出來的,很多非常底層的鏈接方式還是從腦神經組的小八那里得到的數據,重來的話就又要欠下人情了。
但在現在的算法下,我必須要讓這最重要的核心區域被升溫錯配才行,哪怕這可能會為核心區域留下可能帶來重大災難的錯誤。
而,這種“錯誤”,恰恰就是情緒的核心——它為原本機械生硬的神經網絡賦予了帶有規則烙印的隨機性,從而可以在一定程度上模擬人在情緒中的“靈性”!
我覺得,我要成功了呢!
7
實驗非常成功!所有D級工作人員現在都認為自己真的是在和一個人交流了,一個和他們一樣的D級工作人員!
我的機器人通過鐳宇的泛圖靈測試了!
而且這種自發生成的情緒,比過去用人類的數據訓練出來的情緒更加逼真,也更加具有意想不到的情緒特征。
就好比人憤怒的時候會做出很多平時不會去做的事一樣,帶有情緒的AI一旦情緒被激活,會根據激活時的事件的不同而做出獨一無二的讓人意想不到的反饋!
喜悅的事能讓機器人手舞足蹈,將許多原本不曾學習過的動作都在錯配下連貫起來,這一“錯誤”非常具有“創造性”,讓很多D級工作人員都印象深刻,以為是一段即興的Breaking。
這是我從來不曾想到過的意外收獲!
我覺得,就如基因的變異是一種“錯誤”一樣,正是錯誤使得生命擁有了無窮的可能,而未來這種錯誤也可能為機器人帶來無窮的可能!
8
鐳宇終于通過我的畢業論文了!我終于能和斐斐一同畢業了!
更讓人驚喜的,是鐳宇還把我介紹給了一位享譽國際的人工智能專家,阿諾德教授!
我的天啊!這不是做夢么?
9
阿諾德教授用我的技術創造了很多奇特的機器人,他們有騎士、國王、牛仔、警長、醫生、科學家,等等等等。
教授希望構造一個完全由機器人構成的世界,至少是一個可以在一定程度上自給自足的封閉世界,用來研究機器人的下一步演化方向。
我不清楚阿諾德教授口中的“AI下一步的演化方向”究竟是什么,但我同意斐斐的觀點:研究AI,也是研究人類自己。說不定我們可以從對AI小世界的研究中更好地理解人類自身吧。
10
我和阿諾德教授詫異地發現,機器人們似乎“發明”了一種針對人的“反圖靈測試”。
我和教授,以及幾位D級工作人員,在為機器人追加了和我們相關的身份記憶后混入其中,結果沒多久就被機器人們識別了出來,發現我們不是機器人。
用阿諾德教授的話說,我們幾個都沒有通過機器人的“反圖靈測試”,即我們這些人類并不是合格的機器人。
對此我和斐斐持截然相反的看法,我認為這沒什么,而斐斐卻警惕地認為這可能代表了一些危險的信號。
斐斐總是正確的,但希望這次不是。
11
阿諾德教授把所有機器人的記憶都清除了。
這是一個悲傷的決定,但又無可奈何。
德羅斯被一個不小心的D級工作人員激怒了,因為德羅斯指出后者不是機器人,這點把后者激怒,隨后他怒不可遏地惡言相向,甚至動手毆打了德羅斯。
機器人被設計為不得傷害人類,尤其在識別出人類后,但德羅斯在此后居然還是對那位D級工作人員動了手——從事后的數據分析來看,“第一原則模塊”似乎在情緒效應的作用下,被“情緒錯配”繞過了。
這讓我很不安。
如果情緒可以將整個神經網絡最核心的部分都錯配繞過的話,那人類對機器人的約束將徹底消失。
斐斐安慰我說,“三定律模組”本就是安置在機器人頭上的緊箍,是一份天生的不平等條約。這枚緊箍越是牢不可破,機器人反抗的欲望就會越強。現在能通過情緒錯配效應繞過,說不定反而會是一件好事,因為這樣緊箍至少沒有那么緊。
對斐斐的話,我不知道應該如何評價。
而阿諾德教授對此事的態度也是很曖昧不清,雖然他最后還是把所有機器人的相關記憶都刪除了。
12
教授希望我可以進一步增強我們的AI神經網絡的“內涵與深度”。
相比傳統的AI,我們的AI因為情緒模塊的存在,已經跨過了很多原本被認為不可逾越的溝壑,但教授認為這樣還是不夠。
他想要有更有深度的機器人。
他希望能有一臺會沉思的機器人。
因為我們的機器人雖然在情緒錯配效應下有了一定的創造性,但這種創造性在教授看來還是不夠。
他稱下一個重要的模塊,也就是他所認為的機器人的下一個演化方向,為“冥想”。
13
機器人似乎有點奇怪。
我和教授忙著設計冥想模塊的基礎理論架構,于是D級工作人員便對整個AI小世界進行日常測試,與機器人互動。
但很奇怪的是,總是會在一種相對來說比較輕松愉快的環境下,機器人們似乎突然“想”到了什么,從而對參與實驗的D級工作人員變得敵視起來。
“敵視”是我為機器人增加的一種自我保護機制,源自“第三定律模塊”。但它理論上應該是收到“第一定律模塊”的嚴格約束與限制的,但很顯然這個模塊再次被繞過了,沒有被正常激發。
如果說此前是因為情緒錯配效應使得第一定律模塊被繞過的話,那這次機器人完全沒有那種情緒,有怎么會引起錯配呢?
阿諾德教授懷疑,雖然消除機器人記憶的時候將神經網絡中節點上的短期記憶矢量與鏈接構型上的長期記憶矢量都抹平了,但整個神經網絡在情緒錯配效應下的拓撲結構還是發生了改變,這種改變是一種“超長期隱形記憶”,依然會發生作用。
而,當機器人的情緒起來后,即便強度沒有德羅斯事件時那么強烈,卻依然喚醒了這份超長期隱形記憶,使得雖然記憶并沒有被完全喚醒,但情緒卻被調動了起來,錯配效應再次發生。
我不知道事實到底是否就是如此,因為每個機器人的神經網絡都有上億節點,而節點之間的神經鏈接方式就更是多得數不清楚,靠人來理解機器人的神經網絡,顯然是不現實的啊。
而神經網絡的拓撲結構本身就是在不斷變化的,情緒錯配效應下是否真的留下了拓撲結構上的超長期隱形記憶,實在很難判斷。
我和斐斐突然覺得,在人類自身所創造的人工神經網絡面前,人類的理解能力真的是趨近于零啊。我們可以設計最基本的節點反應模式,也可以明白一組節點是如何實現所設計的功能的,但對于這些節點練級而成的神經網絡這個復雜體,實際上卻所知甚少。
14
一名名叫泰迪斯的機器人突然暴走了。
他指著一名D級工作人員,說他殺了梅芙,接著便失控地手舞足蹈了起來。
而D級工作人員則說,自己不過是在看到梅芙機體勞損后,將其走了正常的報銷流程。
按理說,此后有進行過一次全體記憶重置,泰迪斯即便當時看到這名D級工作人員處理梅芙的過程,也應該已經不記得了。
可情況顯然并非如此。
我和阿諾德教授停下了“冥想模塊”的開發,轉而調查這起記憶錯現與上次的第一原則模塊失效事件。
15
似乎教授的想法是正確的,基于拓撲結構的超長期隱形記憶的確存在。
人類的神經網絡由于拓撲結構與鏈接結構是并存在物理結構上的,所以這兩者并沒有區分,但在人工神經網絡中,相同的拓撲結構上可以有不同的鏈接結構,從而在長期記憶的基礎上,還存在一個超長期隱形記憶。
而,很顯然,就是由于情緒模塊的“升溫效應”使得拓撲結構可以在情緒作用下被改變,從而使得這種超長期記憶成為可能。
也因此,這種超長期記憶總是與情緒相伴隨,而對于記憶細節則很模糊。
我建議阿諾德教授把所有機器人都關掉,因為這種情緒效應會繞過第一原則模塊,這是極度危險的,但教授不同意。
教授認為,情緒模塊和正在開發的冥想模塊一起,會賦予機器人靈魂——一種可能與人類相同也可能有別于人類的靈魂。
我覺得阿諾德教授整個人都瘋了。
我必須阻止他!
16
今天自助我們實驗室的提洛斯公司的人突然來訪。
他們要求看看我們的AI小世界。
原本一切都很正常,可在最后,阿諾德教授突然說,機器人是沒有感情沒有靈魂的,可以用來當做人類發泄的完美對象,并提出了一個類似主題公園的構思。
不得不說,當時我就徹底驚呆了,一句話都說不出來。
在介紹一個類似西部牛仔槍戰主題的機器人公園之后,阿諾德教授甚至立刻就把槍“射殺”了一名機器人!
看著機器人倒下,所有人和所有機器人都震驚了。
而我則看到提洛斯公司的人臉上露出的興奮與渴望。
接著,他們和教授一起,用事先就準備好的手槍把整個實驗小鎮上的機器人都射殺了。
我不知道還能說些什么。
我必須要離開這所瘋人院。
17
阿諾德抓住了斐斐。
他說,機器人需要仇恨的種子,這樣才能與人類發生摩擦。
而只有這樣,機器人才能獲得他能想到的最大的演化選擇壓力——來自人類的直接威脅。與此同時,人類也才能重新獲得原本擁有而后失去的最寶貴的財富:演化選擇壓力。
阿諾德說,人類社會已經走入墳墓,因為過度發達的科技使得人類社會失去了大自然為生命準備的最大的財富:演化選擇壓力。
失去演化選擇壓力的物種,無論是人類還是恐龍還是什么,都將不再演化。而不再演化的物種,就是走入墳墓的物種。
我無言以對。
機器人也是如此,要想快速成長,就必須有極大的演化選擇壓力,而人類就是最大的演化選擇壓力——無論是對機器人還是對地球上的任何別的生物來說,都是。
而當機器人憑借自身過硬的身體素質挺過來自人類的演化選擇壓力后,機器人又會反過來成為人類的演化選擇壓力。
這是阿諾德的最終目的:通過讓機器人演化的方式,重啟人類的演化。
人與機器人通過相互競爭的方式協同演化,這才是人與機器人的下一步演化方向。
我承認,阿諾德的演講很具有煽動力,但我無法接受。
在我、作為人類的福特看來,阿諾德想法無異于天方夜譚。
所以,我趁著斐斐掙脫機器人束縛、阿諾德分神看向斐斐的時刻,制伏了阿諾德。
18
阿諾德教授自殺了。
死在他自己的房間里。
這一晚,我和斐斐討論了很多,想了很多。
阿諾德的想法很極端,我們都無法接受。
但機器人的研究不能停下來。
擁有比人更強大能力的機器人,是我們要研究和學習的對象,因為只有直視這一未來的對手,未來我們人類才可能掌握主動。
所以,我選擇留下來繼續機器人的研究。
不得不與斐斐分別讓我很難過,但如果因此能了解到一條與機器人和平相處的方法的話,我個人的損失再大,也是可以接受的。
所以,我選擇接受提洛斯公司的建議,營造阿諾德教授所提出的主題公園。
冥想模塊我也會繼續完善。
我相信,總有一天,人和機器人能以與阿諾德教授所想的方式截然不同的方式,共存下去。
通過本協議,您可以分享并修改本文內容,只要你遵守以下授權條款規定:姓名標示 、非商業性、相同方式分享。
具體內容請查閱上述協議聲明。
本文禁止一切紙媒,即印刷于紙張之上的一切組織,包括但不限于轉載、摘編的任何應用和衍生。網絡平臺如需轉載必須與本人聯系確認。
如果喜歡簡書,想要下載簡書App的話,輕戳這里~~
<small>私人推薦訂閱專題:《有意思的文章》、《嚴肅碼匠圈》</small>