2018年1月20日 Lee公子 摘自《混亂》(英)蒂姆·哈福德
雖然我自己也是一枚科技的擁躉,但是我清醒意識到科技對我自身能力的“殘化”效應(yīng),以及科技本身的缺陷會給我?guī)砗芏嗟娘L(fēng)險(xiǎn)和麻煩。
我自己遭遇過的科技風(fēng)險(xiǎn)有以下這些:
第一個(gè)風(fēng)險(xiǎn)是科技載體失靈。
例如設(shè)備沒電,硬件損壞,軟件沖突,接口不識別等。遇到這種情況,基本上只能束手無策。很多時(shí)候,這種設(shè)備的失靈常常會讓你陷入尷尬境地,甚至火冒三丈。
第二個(gè)風(fēng)險(xiǎn)是初始數(shù)據(jù)錄入錯(cuò)誤。
一旦初始化的時(shí)候,數(shù)據(jù)錄入錯(cuò)誤了,這個(gè)數(shù)據(jù)就隱藏到數(shù)據(jù)的海洋中了,后面你將很難有機(jī)會發(fā)現(xiàn)這種錯(cuò)誤,然后不知道什么時(shí)候,這個(gè)錯(cuò)誤就會冒出來給你的結(jié)論或者結(jié)果將上一軍,甚至?xí)Q策產(chǎn)生誤導(dǎo)。
而數(shù)據(jù)初始化中存在錯(cuò)誤,基本上是大概率事件。
第三個(gè)風(fēng)險(xiǎn)是設(shè)備無法人力維修。
現(xiàn)在的電子設(shè)備非常精細(xì),面對失靈的電子設(shè)備人工幾乎無能為力,這也意味著,設(shè)備一壞,不太可能在現(xiàn)場通過維修好設(shè)備繼續(xù)你的工作,你的重要工作就會被迫中斷。
第四個(gè)風(fēng)險(xiǎn)是底層算法錯(cuò)誤。
雖然科技產(chǎn)品可以精準(zhǔn)計(jì)算結(jié)果,但是一旦初始算法就有缺陷的話,得到的結(jié)論是不合邏輯的,結(jié)論就是錯(cuò)誤的。
第五個(gè)風(fēng)險(xiǎn)是制造大麻煩。
一旦科技產(chǎn)品遇到不能解決的問題,基本上都是非常規(guī)的大問題,這類問題一般人也很難在瞬間解決,需要足夠多的專業(yè)經(jīng)驗(yàn)和更多的專業(yè)工具才能協(xié)助解決。這種問題如果是在緊急情況下遇到,很可能就是致命性的。
意識到科技有以上風(fēng)險(xiǎn)之后,盡管你依然不能擺脫科技產(chǎn)品,但是你會加強(qiáng)風(fēng)險(xiǎn)意識,準(zhǔn)備冗余的設(shè)備作為備用,并提高個(gè)人經(jīng)驗(yàn)和邏輯得到的判斷在決策中的占比(就是做你要更加相信自己,而不是盲目相信數(shù)據(jù))。
2013年去世的厄爾維納( Earl Wiener)在航空安全方面有著極大聲望,他提出了關(guān)于航空和人為錯(cuò)誤的“維納法則”。其中一條是,電子設(shè)備解決了小麻煩卻制造了大麻煩。維納的意思是:雖然自動(dòng)化能糾正常見的人為錯(cuò)誤,但它會時(shí)不時(shí)地制造大麻煩。維納很有遠(yuǎn)見,維納法則的適用范圍已經(jīng)超越了航空業(yè)。
幾年前,位于加州奧克蘭附近的圣萊安德羅警察局在未經(jīng)車主允許的情況下給兩輛小汽車拍攝了至少112張照片,車主名叫邁克爾卡茨拉卡比( Michael Katz- Lacabe),是當(dāng)?shù)鼐用瘛_@些照片最終出現(xiàn)在了法庭上,倒不是因?yàn)榭ù睦ū仁且粋€(gè)恐怖分子或黑社會組織成員,而是因?yàn)榭ù睦ū认蚍ㄔ荷暾埩斯_這些照片。警察局猛拍卡茨拉卡比的車子,并非懷疑他涉嫌犯罪。其實(shí)車子附近有一個(gè)監(jiān)控,每一輛經(jīng)過的汽車都會被拍下來,卡茨拉卡比的車也一樣。之后,電腦會讀取車輛的電子信息,記錄牌照號碼,并附注拍攝時(shí)間和地點(diǎn)。卡茨拉卡比先生的女兒也被拍了下來,她們一個(gè)8歲,另一個(gè)5歲,拍照的時(shí)候她們就在車子旁邊。
警察局將卡茨拉卡比先生的汽車和孩子的照片,連同其他數(shù)百萬張照片一起,送到了由美國聯(lián)邦政府管理的北加州地區(qū)情報(bào)中心。這里的工作人員將使用硅谷魔法球科技有限公司開發(fā)的一款軟件一秒鐘能夠搜索上億張牌照。這樣一個(gè)具有強(qiáng)大識別和分析能力的數(shù)據(jù)庫在打擊犯罪領(lǐng)域潛力無限但是與此同時(shí)它的潛力也被用在了見不得光的地方。卡茨拉卡比告訴《福布斯》( Forbes)的記者安迪·格林伯格( Andy Greenbery):政府工作人員可能會回放數(shù)據(jù)庫里的照片,窺探各種隱私,比如有人下班后沒回家,他的車子卻出現(xiàn)在別人老婆的房子前,有人去過醫(yī)用大麻診所,有人去了計(jì)劃生育中心,有人參加了游行抗議。
近年來,人們對這種強(qiáng)大科技的優(yōu)勢和風(fēng)險(xiǎn)存在明顯爭議,也展開了不少討論。然而,從維納法則出發(fā),有一個(gè)風(fēng)險(xiǎn)卻被廣泛忽略了:科技失效雖然罕見但確實(shí)存在,當(dāng)它真的發(fā)生,我們又該怎么辦呢?
圣誕節(jié)期間,英國公民維克多漢金斯( Victor Hankins)收到一件不太友好的“禮物”:一張罰單。通常情況下,你是這樣收到罰單的:你回到停車的地方,發(fā)現(xiàn)一張票據(jù)壓在擋風(fēng)玻璃的雨刮器底下作為對你亂停亂放的懲罰。漢金斯先生不是這樣,他是在門墊上發(fā)現(xiàn)了一封來自當(dāng)?shù)卣男拧P胖酗@示,2013年12月20日下午8點(diǎn)8分14秒,他的車在約克郡的布拉德福市堵塞了公交車站,他的違規(guī)行為被一輛剛好路過、裝有攝像頭的交通執(zhí)法車拍了下來。計(jì)算機(jī)自動(dòng)識別了汽車牌照,在數(shù)據(jù)庫中找到了漢金斯先生的地址,然后一個(gè)“證據(jù)包”自動(dòng)生成,其中包括場景視頻、違規(guī)時(shí)間和地點(diǎn)。在信中,布拉德福市議會要求漢金斯先生支付罰款,否則將會面臨法庭訴訟。這封信同樣是由計(jì)算機(jī)程序自動(dòng)生成、打印并寄出的。似乎一切都很完美,然而漢金斯先生的車并沒有非法停放,只是被困在了堵塞的道路中。漢金斯向當(dāng)?shù)氐氖凶h會發(fā)起了投訴。
按理說這種高科技的存在目的是解放人類的雙手,讓我們有時(shí)間做更有趣的事,比如檢查異常情況——給漢金斯先生開的錯(cuò)誤罰單就是一種異常。但是,官僚主義者和法航的飛行員一樣,他們很相信這些高科技,覺得高科技不會出錯(cuò)。布拉德福的市議會一開始就駁回了漢金斯先生的投訴,漢金斯先生以打官司相威脅,市議會才禮貌性地承認(rèn)錯(cuò)誤并道歉。這不由得使人想起一個(gè)老笑話:人非圣賢孰能無過,但人類犯錯(cuò)很多情況下還有救,高科技犯錯(cuò)可能就沒救了。
就在漢金斯先生的汽車被拍照的同一天,谷歌公布了一個(gè)中樞網(wǎng)絡(luò)系統(tǒng),可以識別由谷歌街景車拍攝的門牌照片。谷歌的研究小組稱,該系統(tǒng)只需一個(gè)小時(shí)便可以讀取法國每個(gè)門牌號的信息,準(zhǔn)確率96%,這令人嘖嘖稱奇。然而4%可不是一個(gè)小數(shù)字,法國有2500萬戶家庭,換句話說,一小時(shí)內(nèi)錯(cuò)誤識別的門牌號高達(dá)百萬戶。
換個(gè)角度想,4%的錯(cuò)誤率也有一定積極作用,這意味著人們不敢百分之百仰賴高科技和自動(dòng)化物流巨頭UPS(聯(lián)合包裹速遞服務(wù)公司)和聯(lián)邦快遞公司絕不會希望25個(gè)包裹當(dāng)中就有一個(gè)送到了錯(cuò)誤地址,這會砸了它們的金字招牌。如果警察經(jīng)常因?yàn)殄e(cuò)誤判斷而嚇到戰(zhàn)戰(zhàn)兢兢的無辜者,那么警務(wù)督察就會嚴(yán)肅對待來自無辜市民的投訴。要是警務(wù)督察發(fā)現(xiàn)某位警察參與的每25個(gè)案件中就有一件被搞砸,這位警察就必須出席聽證會為自己辯護(hù)。
要是谷歌中樞網(wǎng)絡(luò)系統(tǒng)的準(zhǔn)確率提高到百萬分之四呢?如此一來,法國2500萬戶家庭的門牌號,就只會出現(xiàn)一個(gè)識別錯(cuò)誤。從百分之四到百萬分之四,隨著準(zhǔn)確率提高了一百萬倍,人們對高科技的信任也達(dá)到了百分之百。系統(tǒng)出錯(cuò)的可能性越小,比如飛機(jī)上的電傳操縱系統(tǒng),我們處理突發(fā)情況的能力就越弱。計(jì)算機(jī)怎么會錯(cuò)呢?所以當(dāng)有人指出計(jì)算機(jī)出了錯(cuò),旁人會認(rèn)為是那個(gè)人搞錯(cuò)了或者他在撒謊。除非我們自己成為高科技的受害者,否則我們會一直把高科技奉為真理。假如購物中心的電腦將你誤認(rèn)成了慣偷,保安因此把你趕了出去,你還會相信高科技嗎?(這種技術(shù)已經(jīng)存在,不過仍在調(diào)試修改中。它能為商場識別常客,以便為他們提供特別優(yōu)惠。)一旦你上了購物中心的黑名單,要自證清白可不是一件容易的事。
自動(dòng)化系統(tǒng)本來可以很美好,但如果人們過分信任它、依賴它,我們當(dāng)中的一些人就會遭殃。39歲的拉辛納易卜拉辛( Rahimah Ibrahim)是一名大學(xué)講師,同時(shí)也是一名建筑師,正在美國斯坦福大學(xué)攻讀博士學(xué)位。2005年1月2日,她打算從舊金山飛往夏威夷去參加一個(gè)學(xué)術(shù)研討會。當(dāng)時(shí)拉辛納剛做完手術(shù),身體還沒恢復(fù),必須坐在輪椅上,這趟旅途注定艱難,然而后來發(fā)生的事卻把她帶進(jìn)深淵。易卜拉辛剛辦理完登機(jī),警方當(dāng)著她未成年女兒的面逮捕了她,給她戴上了手銬,把她押到一個(gè)拘留室。幾小時(shí)之后,警方才告知易卜拉辛可以坐次日的航班離開。
兩個(gè)月后,在家鄉(xiāng)馬來西亞探親完畢的易卜拉辛打算回美國,卻在機(jī)場被告知其美國學(xué)生簽證在沒有任何通知的情況下被撤銷了。盡管易卜拉辛的女兒是美國公民,她卻永遠(yuǎn)回不了美國了維克多漢克斯先生用官司相威脅,就讓布拉德福議會撤銷了停車罰單。易卜拉辛卻花了9年時(shí)間和價(jià)值400萬美元的法律援助。直到美國地方法官威廉阿爾蘇普( Wiliam Alsup)宣判之前,美國政府一直在不斷地干涉訴訟程序。原來,易卜拉辛被錯(cuò)誤地列入了禁飛名單,原因可能是伊斯蘭祈禱團(tuán)與馬來西亞雅馬哈伊斯蘭教英文名稱極其相似,前者(英文名 Jemaah Islamiyah)是一個(gè)恐怖組織,2002年在巴厘島用汽車炸彈致死202人,后者(英文名 Jemaah IslahMalaysia)則是馬來西亞海外留學(xué)生的專業(yè)協(xié)會,易卜拉辛加入了馬來西亞海外留學(xué)生協(xié)會,而非恐怖組織。
一旦錯(cuò)誤的數(shù)據(jù)被錄入電腦數(shù)據(jù)庫,它便成了鐵律,因?yàn)槿藗儍A向于認(rèn)為計(jì)算機(jī)是不會出錯(cuò)的正如主審易卜拉辛一案的法官所寫的那樣:“一旦誹謗信息被錄入TSDB(恐怖主義數(shù)據(jù)庫),它便通過政府的連鎖數(shù)據(jù)庫廣泛傳播,像一個(gè)永不消失的不良信用記錄。”初始的錯(cuò)誤像病毒一樣傳播開來,卻沒有官方機(jī)構(gòu)愿意去糾正它。
世界是一個(gè)凌亂的存在。那個(gè)數(shù)字到底是1還是7,那個(gè)字母是小寫的L還是大寫的i?一輛不動(dòng)的汽車,到底是亂停亂放還是只是因?yàn)槎萝嚕磕莻€(gè)人是小偷還是小偷的孿生弟兄?是恐怖組織還是留學(xué)生協(xié)會?在一個(gè)凌亂的世界里,錯(cuò)誤在所難免。自動(dòng)化系統(tǒng)卻要一切井然有序。一旦計(jì)算機(jī)程序或者數(shù)據(jù)庫將你置于特定的分類中,非黑即白的數(shù)據(jù)便會否定任何外界質(zhì)疑和不確定。你是小偷;你的車停在了公交車站;你在禁飛名單里一反正電腦是這么說的,這也成了多年以來政府捍衛(wèi)自己權(quán)威的武器。計(jì)算機(jī)也好,政府也罷,誰也不會承認(rèn)錯(cuò)誤。
這是一個(gè)前所未有的名單時(shí)代,我們的名字出現(xiàn)在各種名單上:嫌犯名單、土豪名單、經(jīng)常在加利福尼亞州圣萊安德羅附近出沒的司機(jī)名單,甚至強(qiáng)奸幸存者名單。計(jì)算機(jī)將這些原本待在文件柜里的一摞摞的文件,轉(zhuǎn)換成了可以即時(shí)搜索、即時(shí)生效的數(shù)據(jù)。這樣的數(shù)據(jù)庫還在不斷擴(kuò)大,進(jìn)入這些名單的人不僅沒有被事先告知,甚至根本不知道名單的存在。因此,一旦名單出錯(cuò),受牽連者根本沒有機(jī)會提出質(zhì)疑,錯(cuò)誤就一直存在。
盡管這些高科技數(shù)據(jù)庫功能強(qiáng)大、著實(shí)有用,但我們恐怕沒有意識到,整潔有序的數(shù)據(jù)庫很難反映出這個(gè)世界的本來面目一凌亂。我們同樣沒有意識到,在電腦的準(zhǔn)確率比人腦高一百倍、工作效率高一百萬倍的同時(shí),它出錯(cuò)的概率也在成倍增加。這令人想到貝克曼的“科學(xué)造林”—我們小看了這些科技的威力,它哪里只是將世界分門別類,它分明是在改變這個(gè)世界。
但這并不是說我們就該徹底擯棄高科技。一方面,我們都能理解卡茨拉卡比先生,他的車子和孩子無緣無故被拍了100多次,換了我們也不樂意;另一方面,我們也不得不承認(rèn)高科技在執(zhí)法過程中扮演的重要角色,比如調(diào)查嫌疑犯,指揮交通和阻止恐怖分子登機(jī)。但不管怎么說,科技應(yīng)該幫助人類做出更好的決定,而不是代替人類做決定。飛機(jī)自動(dòng)駕駛系統(tǒng)應(yīng)該給飛行員提供支持和幫助,而不是代替飛行員駕駛飛機(jī)。如果我們總是依賴電腦,就等著大禍臨頭吧。
科技失靈帶來的無奈有時(shí)讓人哭笑不得。2012年3月,三名在澳大利亞旅游的日本學(xué)生用GPS(全球定位系統(tǒng))導(dǎo)航開車到北斯特拉布魯克觀光。不知為什么,GPS沒有檢測出行駛路線被太平洋的海水淹沒了14.5千米。旅行途中有意外發(fā)生也是常情,不過三名學(xué)生的反應(yīng)卻非常滑稽。他們沿著已經(jīng)失靈的GPS導(dǎo)航的路線,把車開到了海邊,跨過一片泥灘,朝著大海開去。海浪拍打著他們駕駛的“現(xiàn)代”汽車,情況不妙。終于,他們尷尬地發(fā)現(xiàn)自己被困了。路過的渡船上,乘客們驚訝地看著佇立在水中的車和人。學(xué)生們棄車上岸。車是報(bào)廢了。“我們還想再來一次澳大利亞,”一名學(xué)生說,“這里的人都很友好,即便是今天。
這幾個(gè)人的經(jīng)歷的確好笑。但值得思考的是,三個(gè)具有行為思考能力的人,怎么可能跟著GPS的荒誕指示開進(jìn)太平洋?自動(dòng)化系統(tǒng)往往使我們陷入被動(dòng),我們不經(jīng)大腦地接受任何指示。舉例來說,在有些國家,器官捐贈是默認(rèn)的,也就是說,每個(gè)人都是初始的器官捐獻(xiàn)者,除非他們在注冊表單上打鉤,選擇退出,于是幾乎所有人都默認(rèn)了這一設(shè)定。而在另一些國家,公民則須通過在注冊表單上打鉤來選擇成為器官捐贈者,所以登記率要低得多。規(guī)定不同,我們的決定就會完全不同,公司養(yǎng)老金政策也是同樣的道理。有時(shí)候這些決定至關(guān)重要,甚至能夠改變我們的生活。
一旦計(jì)算機(jī)給出相應(yīng)的建議,人們便會不假思索地接受,心理學(xué)家將這種現(xiàn)象稱為“自動(dòng)化偏差”。不管是布拉德福的移動(dòng)執(zhí)法車,還是美國的禁飛名單,都存在自動(dòng)化偏差。
把汽車開進(jìn)海里是自動(dòng)化偏差的一個(gè)極端例子,而大多數(shù)GPS使用者是通過更加溫和的方式感受到自身存在的自動(dòng)化偏差。第一次使用GPS的時(shí)候,你會小心謹(jǐn)慎。你會檢查地圖,可能還會將行駛路線打印出來,上路之前會盡量了解地形,估算著旅程需要多長時(shí)間。不過,有了幾次成功出行的經(jīng)歷,你就被GPS降服了。既然GPS能找到更迅捷、可靠的路線,自己還費(fèi)那么大勁干嗎呢。
GPS很少讓用戶失望,但是一旦讓你失望了,那必定是刻骨銘心的。這種悲劇第一次發(fā)生在我身上的時(shí)候,我正驅(qū)車前往約克市中心的一個(gè)酒店。約克市是一個(gè)美麗的中世紀(jì)風(fēng)格的城市,它被古老的城墻包圍,因此交通流量受到了管制。我到達(dá)的時(shí)候已是深夜,然后發(fā)現(xiàn)前方道路因?yàn)槭┕そ辛恕PS沒有得到實(shí)時(shí)更新,指示我繼續(xù)往前開。幸運(yùn)的是,我沒有聽從GPS的指示,朝一輛向我駛來的蒸汽壓路機(jī)開過去。在那一刻,我意識到:我太依賴GPS了,連一個(gè)備用計(jì)劃也沒準(zhǔn)備。我既不知道自己在哪兒,也不知道酒店在哪兒,我感到自己走投無路。那時(shí)候還沒有智能手機(jī),我也沒帶地圖。最后,我只好漫無目的地駕駛,希望GPS能重新規(guī)劃出一條新路線。
后來經(jīng)過了幾次順暢的旅行,GPS又重新獲得了我的信任。連續(xù)幾年它都不負(fù)所望,出色地完成了任務(wù),直到最近,就在我打算去鄉(xiāng)下參加一場婚禮的時(shí)候,它又傷了我的心。我不知道目的地的具體位置,只知道大致方向和郵編。可當(dāng)我把郵編輸入GPS系統(tǒng),它沒有任何反應(yīng)。就這樣,GPS又一次辜負(fù)了我。我不知道它究竟出了什么問題,也無法預(yù)測何時(shí)它會再次失靈。從事直覺決策研究的心理學(xué)家加里克萊因( Gary Kein)總結(jié)道:“當(dāng)計(jì)算機(jī)程序?yàn)槟阕龀鰶Q策時(shí),人們往往拒絕思考,不會想怎么去改善它。但GPS之類的計(jì)算機(jī)程序很難進(jìn)行自我診斷,也就是說很難找到自己失誤的原因。隨著人們對它的依賴程度越來越大,人們自身的判斷力就會減弱,這反過來又加強(qiáng)了他們的依賴性。這個(gè)過程形成了一個(gè)惡性循環(huán)。如果總是計(jì)算機(jī)程序來做決定,人就會變得被動(dòng),不再懷疑,失去警惕。
克萊因等研究決策的專家們認(rèn)為,許多軟件工程師開發(fā)的應(yīng)用程序總是想代替我們做決定,這讓問題進(jìn)一步惡化。如果我們打開軟件的目的只是希望得到一些信息和幫助,我們就得費(fèi)一番功夫阻止應(yīng)用程序?yàn)槲覀冏鰶Q定。什么意思呢?例如,我們不想被導(dǎo)航牽著鼻子走,想自己尋找最佳路線,于是我們打開導(dǎo)航軟件,想查看一下地圖或者看看有哪些路線可供選擇。但是這些功能藏得太深,要花費(fèi)一番工夫才能找到。相反,“開始導(dǎo)航”的字樣卻總是那么顯眼,迫不及待地想替我們做決定,想牽著我們的鼻子走。
類似的軟件隨處可見。我們擔(dān)心未來某一天機(jī)器人會搶走我們的飯碗,卻沒有意識到機(jī)器人已經(jīng)在一步一步搶走我們的決定權(quán)。在如今的經(jīng)濟(jì)環(huán)境下,超級大倉庫已經(jīng)很常見。在那里,工人必須快速地將貨品從貨架上取走,搬到包裝和發(fā)貨的地方。他們頭戴一種特殊的頭盔,頭盔里裝有軟件,通過頭盔他們可以接收一位名叫“詹妮弗”的虛擬指揮官的指令。詹妮弗會告訴他們?nèi)ツ睦铮鍪裁凑材莞フ乒苤鴤}庫的一切,再微不足道的細(xì)節(jié)也不放過。詹妮弗能將一個(gè)大的指令分成若干個(gè)更小的,以便盡量減少失誤。比如,如果工人需要從貨架上取下18本書,詹妮弗會指揮工人分4次完成:5本、5本、5本、3本。在這樣的條件下工作,工人淪為了長著肉身的機(jī)器。詹妮弗剝奪了工人的思考權(quán),在它眼里,工人只不過是一雙雙廉價(jià)且麻利的手。
2007—2008年那場使世界經(jīng)濟(jì)陷入衰退的金融危機(jī),其實(shí)就好比一位心不在焉的司機(jī)將車開進(jìn)了太平洋。危機(jī)爆發(fā)的原因之一是一種叫作債務(wù)抵押債券(CDO)的金融產(chǎn)品。這種金融產(chǎn)品結(jié)構(gòu)復(fù)雜,其價(jià)值和美國房地產(chǎn)市場的健康程度成正比。華爾街的金融天才在金融風(fēng)暴來臨之前,或許已經(jīng)看到房價(jià)飛漲背后的房地產(chǎn)泡沫,即使美國歷史上還沒有出現(xiàn)過全國范圍內(nèi)的同步崩潰。要是這些金融天才能夠?qū)⒆约旱念A(yù)測告訴電腦,也許電腦就能近一步估算房地產(chǎn)泡沫破裂對CDO價(jià)值造成的災(zāi)難性影響,不過這一切都只是事后的幻想罷了。電腦并沒有這些天才所獨(dú)有的金融智慧,它不知道金融風(fēng)暴即將席卷全球。
如何合理利用計(jì)算機(jī)程序,同時(shí)降低它出錯(cuò)的風(fēng)險(xiǎn)呢?心理學(xué)家麗貝卡·普里西克( Rebecca Pliske)發(fā)現(xiàn),經(jīng)驗(yàn)豐富的氣象學(xué)家會在分析數(shù)據(jù)、做出專業(yè)預(yù)測后,再對比計(jì)算機(jī)的預(yù)測,看看自己是否有什么疏忽。(通常情況下,氣象學(xué)家和電腦的預(yù)測一樣。)與空客A330的飛行員不一樣這些資深的氣象學(xué)家更愿意利用自己的專業(yè)知識預(yù)測天氣,而不是全部依靠電腦,所以他們能一直保持高水準(zhǔn)。但是,年青一代的氣象學(xué)家和老一輩不同,他們更相信電腦而不是自己。一旦老一輩退休,人類將永遠(yuǎn)失去其在專業(yè)領(lǐng)域的寶貴經(jīng)驗(yàn),電腦出錯(cuò)時(shí)也將束手無策。
我們已經(jīng)討論過汽車的GPS系統(tǒng)和飛機(jī)的自動(dòng)駕駛系統(tǒng)存在的問題,將這兩點(diǎn)考慮在一起,你就會明白自動(dòng)駕駛汽車的缺點(diǎn)。
克里斯·厄姆森( Chris Urmson)是谷歌自動(dòng)駕駛汽車的項(xiàng)目負(fù)責(zé)人,他希望自動(dòng)駕駛汽車能盡快批量生產(chǎn),這樣他的兒子就不用考駕照了。2020年,他的大兒子就滿16歲了,厄姆森覺得不能再等了。和飛機(jī)的自動(dòng)駕駛系統(tǒng)不同,自動(dòng)駕駛汽車不需要駕駛員。這種汽車沒有方向盤,不少人擔(dān)心如果哪一天它們也往海里跑,可得找個(gè)方法及時(shí)從車?yán)锾鋈グ。?/p>
自動(dòng)駕駛汽車遭遇的反對聲音不少,小厄姆森想開上自動(dòng)駕駛汽車恐怕還得等一段時(shí)間。卡內(nèi)基梅隆大學(xué)的自動(dòng)駕駛專家拉杰拉杰庫馬爾( Raj Rajkumar)認(rèn)為,要研發(fā)出可靠的自動(dòng)駕駛汽車至少還要一二十年。在此之前,我們可以嘗試讓自動(dòng)駕駛程序負(fù)責(zé)簡單的路況,而復(fù)雜的路況還是交給司機(jī)吧。
自動(dòng)駕駛程序會不斷改進(jìn),能夠處理的路況也會越來越復(fù)雜,直到有一天完全不需要司機(jī)。最后一步將是一個(gè)由量變到質(zhì)變的微小飛躍,它的出現(xiàn)幾乎很難察覺。”拉杰庫馬爾在一個(gè)廣播節(jié)目中說,“即便如此,意外還是有可能發(fā)生。”這聽上去可不怎么吉利,卻在情理之中。當(dāng)路況變得復(fù)雜時(shí),汽車便將駕駛權(quán)交給司機(jī)。乍一聽,沒毛病啊!可是,如果我們期待汽車能夠判斷何時(shí)交出控制權(quán),就等于說,我們期待它能清楚地判斷自己的局限,知道自己什么時(shí)候搞得定,什么時(shí)候搞不定這些問題即便是人類自己都弄不清楚,你還指望電腦!
退一步講,即便電腦準(zhǔn)確判斷出何時(shí)交出駕駛權(quán),這時(shí)候駕駛員又該如何處理呢?連法航訓(xùn)練有素的飛行員在自動(dòng)駕駛系統(tǒng)關(guān)閉時(shí)都不能正確應(yīng)對突發(fā)情況,更別說普通人了。密歇根大學(xué)的安·普拉丹( Anuj K. Pradhan)說:“人類還沒有習(xí)慣自動(dòng)駕駛汽車,需要我們上的時(shí)候,可能真反應(yīng)不過來。
當(dāng)自動(dòng)駕駛系統(tǒng)把控制權(quán)交給司機(jī)的時(shí)候,多半是在極具挑戰(zhàn)的突發(fā)情況下。當(dāng)空客A330的自動(dòng)駕駛系統(tǒng)關(guān)閉時(shí),三名法航的飛行員只有兩到三分鐘的時(shí)間來弄清楚他們應(yīng)該如何應(yīng)對。想象一下,我們坐在自動(dòng)駕駛汽車?yán)锿媸謾C(jī),突然汽車發(fā)出“自動(dòng)駕駛模式退出”的警報(bào),我們立刻丟下手機(jī)準(zhǔn)備接手,卻看見一輛公交車迎面開來,越來越近、越來越近。
安普拉丹提出只有那些已有多年駕駛經(jīng)驗(yàn)的司機(jī),才有資格駕駛自動(dòng)汽車。不過,這很難從根本上解決問題。無論駕駛員有多少年的經(jīng)驗(yàn),一旦退居二線讓電腦接手,他的技能就會逐漸退化。普拉丹的提議細(xì)想起來讓人不寒而栗:我們先讓新手在其最容易發(fā)生事故的階段駕駛手動(dòng)車,等他們積累了一定的駕駛經(jīng)驗(yàn),再把他們放進(jìn)自動(dòng)駕駛汽車,然后過不了多久,疏于練習(xí)的他們又會退化成新手。
厄爾維納說:“電子設(shè)備解決了小麻煩卻制造了大麻煩。”了解了飛機(jī)的自動(dòng)駕駛系統(tǒng)和谷歌的自動(dòng)駕駛汽車之后,我們還可以補(bǔ)充說:正是因?yàn)殡娮釉O(shè)備逐一排除了所有小錯(cuò)誤,反而給大錯(cuò)誤可乘之機(jī)。為何如此?科技在解放雙手的同時(shí),剝奪了我們練習(xí)專業(yè)技能的機(jī)會,一旦真正的危機(jī)到來,我們便會因?yàn)閷I(yè)技能的退化而無計(jì)可施。
維納清楚地權(quán)衡了自動(dòng)化的利弊。有了GPS,我不需要在旅行前規(guī)劃駕駛路線,確實(shí)節(jié)省了一些時(shí)間。但是,對GPS的依賴也讓我付出了代價(jià),就比如那次鄉(xiāng)村婚禮,當(dāng)我最終趕到教堂的時(shí)候,新郎已經(jīng)入場正在等候新娘,我滿是歉意。“GPS給我節(jié)省的時(shí)間真的能彌補(bǔ)它給我造成的失望嗎?我問自己。鑒于后來我又開始信任GPS,我當(dāng)時(shí)的答案應(yīng)該是肯定的。
數(shù)據(jù)庫的使用同樣涉及利弊的權(quán)衡。雖然它能幫助交警查處違規(guī)停車,幫助警察阻止?jié)撛诳植婪肿拥菣C(jī),但是它也會“誣陷”好人,被誤會的受害者還得努力證明自己的清白:“我沒有違規(guī)停車當(dāng)時(shí)正在堵車。”“這不是一個(gè)恐怖組織,這只是一個(gè)留學(xué)生校友會。”而他們的解釋卻顯得那么蒼白、沒有可信度。自動(dòng)化給大多數(shù)人帶來的便利能彌補(bǔ)它給少數(shù)人制造的麻煩嗎?這個(gè)問題雖然沒有簡單的答案,但它至少可以提醒我們?nèi)A聽這少部分受害者,同時(shí)找到改進(jìn)辦法。
相關(guān)閱讀
反思信息科技對人腦負(fù)面影響的好書《數(shù)字癡呆化》摘錄分享
反思信息科技工具負(fù)面影響的三大痛點(diǎn)