今年11月17日,美國波士頓動力公司在YouTube上發布了一段視頻。視頻中,人形機器人“阿特拉斯”先走“梅花樁”,再跳躍轉體,最后以一個技驚四座的后空翻收場,舉世震驚,引起議論紛紛。
看著機器人瀟灑地完成了這世間絕大多數人都完不成的動作,聯想起前段羅胖講過的一期節目——人類滅絕的一種可能,心里不由咯噔一下。
實際上,在單一思維方面,人工智能早已超過人類許多,我們也早已習慣,但是,對于運動智能尤其是人型機器人的運動能力從無到有,短時間內猛然超過人類,我們還很不適應。它空翻的那一瞬間,好似靈魂附體,忽然活了,讓人直冒冷汗。有人質問,我都不會后空翻,他一個機器人憑什么會?
客觀來說,這種運動能力超強的人型機器人,與前期戰勝柯潔的阿爾法狗,本質上沒什么太大區別,都只能在某個領域橫行,某一方面超過人類。
按照人工智能的實力,科學家將其分為三大類,弱人工智能、強人工智能、超人工智能。
弱人工智能是擅長于單個方面的人工智能,比如,有能戰勝象棋世界冠軍的人工智能,但是它只會下象棋,你要讓它去炒股票,它就傻眼了。“阿特拉斯”只是這樣一個弱人工智能。
強人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干,能夠進行思考、計劃、解決問題、抽象思維、理解復雜理念、快速學習和從經驗中學習等操作。
而超人工智能,在幾乎所有領域都比最聰明的人類大腦都聰明很多,包括科學創新、通識和社交技能,它可以是各方面都比人類強一點,也可以是各方面都比人類強萬億倍的。為什么人工智能這個話題這么火熱,因為,人類永生或滅絕,就取決于我們造出什么樣的超人工智能。
我們現在所在的位置,是一個充滿弱人工智能的世界,垃圾郵件過濾器、谷歌翻譯、地圖導航、無人駕駛汽車,拆彈機器人,這些都是弱人工智能。雖然現在的弱人工智能沒有威脅我們生存的能力,但是,弱人工智能的生態正在變得更加龐大和復雜。
創造強人工智能比創造弱人工智能難得多,我們目前還做不到,但是,科學家們認為,這是遲早的事,而且就在本世紀,最早在2040年,最晚不會遲于2070年。更可怕的是,從強人工智能到超人工智能的轉化,會比弱人工智能到強人工智能快得多。
例如,一個人工智能系統花了幾十年時間到達了人類腦殘智能的水平,而當這個節點發生的時候,電腦對于世界的感知大概和一個四歲小孩一般;而在這節點后一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論,而在這之后一個半小時,這個強人工智能變成了超人工智能,智能達到了普通人類的17萬倍。
這個級別的超級智能不是我們能夠理解的,就好像蜜蜂不會理解凱恩斯經濟學一樣。在我們的語言中,我們把130的智商叫作聰明,把85的智商叫作笨,但是我們不知道怎么形容12952的智商,人類語言中根本沒這個概念。
但我們知道的是,人類對于地球的統治教給我們一個道理——智能就是力量。一個超人工智能,一旦被創造出來,將是地球有史以來最強大的東西,而所有生物,包括人類,都只能屈居其下——而這一切,有可能在未來幾十年就發生。
目前,我們對超人工智能的認識,大多還停留在電影電視或書本小說里,它有好的,有壞,有的還被人類干掉了,但這只是人類認識水平里的形象,只是被我們給擬人化了的形象,讓我們對它少了畏懼,不少人甚至期盼它的出現。事實上,超人工智能雖是生命,卻不是生物,它與人類之間的差別,甚至比蜘蛛與人類更大,更加異己。我們沒有辦法知道超人工智能會做什么,也沒有辦法知道這些事情的后果。
超人工智能是一種活著的生命,一旦生出來之后,就會擁有自己的邏輯。它會成長,它會復制,它會繁殖,它會學習,它會改進。當世界上第一個超人工智能出現時,最可能的情況是這個系統會立刻意識到作為這個世界上唯一一個超人工智能是最有利的,時間上的優勢會讓它選擇扼殺一切其他對手,永遠統治這個世界,不管在它的統治下我們是走向永生還是滅亡。所以,我們人類作為它的親爹親媽,其實我們只有一次機會去定義它,就是在起點上我們把它設計成什么樣。
然而,我們人類不是上帝,任何一種設定設計都是有BUG的,在超人工智能面前,這些漏洞都是致命的。
我們要讓一個人工智能的價值觀和我們的價值觀相仿,然后給它設定一個目標——讓人們快樂。當它變得足夠聰明的時候,它會發現最有效的方法是給人腦植入電極來刺激人腦的快樂中樞。然后它會發現把人腦快樂中樞以外的部分關閉能帶來更高的效率。于是人類全部被弄成了快樂的植物人。如果一開始的目標被設定成“最大化人類的快樂”,它可能最終先把人類毀滅了,然后制造出很多很多處于快樂狀態的人類大腦。當這些事情發生的時候,我們會大喊“擦,我們不是這個意思呀”,但是那時已經太晚了。系統不會允許任何人阻撓它達成目標的。
如果你設定一個人工智能的目標是讓你笑,那它的智能起飛后,它可能會把你臉部肌肉弄癱瘓,來達成一個永遠笑臉的狀態。如果你把目標設定成保護你的安全,它可能會把你軟禁在家。如果你讓他終結所有饑荒,它可能會想:“太容易了,把人類都殺了就好了。”如果你把目標設定成盡量保護地球上的生命,那它會很快把人類都殺了,因為人類對其它物種是很大的威脅。
而且,超人工智能會想盡一切辦法,去實現它原本的被設定的目標,當機器達到了一定程度的智能后,它會意識到如果不自保就沒有辦法實現原本設定的目標,所以,除去對它生存的威脅就變成了它的手段目標。它知道人類可以摧毀它、肢解它、甚至修改它的代碼。這時候它會做什么?理性的做法就是毀滅全人類,它對人類沒有惡意,就好像你剪頭發時對頭發沒有惡意一樣,只是純粹的無所謂罷了。它并沒有被設定成尊重人類生命,所以毀滅人類就和掃描新的書寫樣本一樣合理。
人類的科技就像是一筐子球,三種顏色,一種白色,一種紅色,一種黑色。白色很多,紅色很稀少,黑色的球只有一個。那白色的球就是有益于人類的那些科技成果,那幾百年來我們不斷地撿,撿到的都是白球。偶爾我們能夠撿到一個紅球,紅球就意味著對人類的生存和發展有危害,我們真就撿到過一個核武器。可是這個筐子里只有一個黑球,只要撿到就是人類滅絕。那人工智能就極有可能是這個黑球,而且,極有可能就被我們這一代人撿到。面對我們子孫后代在歷史深處的呻吟,我們這一代人不得不十分小心。
當我們心心念念要比對手更快到達目標,要創造更聰明的弱人工智能系統,為每一個更強的智能而歡呼時,當我們向第一個強人工智能全力沖刺,步子越邁越大時,需要有人冷靜下來思考這些危險,否則,我們每往前一步,都可能是往人類的墳頭掬一捧土,直到我們自己把自己埋葬。
參考:謝熊貓君《為什么最近很多名人比爾蓋茨、馬斯克、霍金都在提醒人們要警惕人工智能》