在機(jī)器學(xué)習(xí)技術(shù)的支持下,微軟讓Tay與大量的網(wǎng)友進(jìn)行匿名交流。
谷歌人工智能AlphaGo(又被親切地稱為“阿爾法狗”)在人機(jī)圍棋大戰(zhàn)中大出風(fēng)頭后,這兩天歐美科技界最熱的明星,非微軟公司聊天機(jī)器人Tay莫屬。這個(gè)“少女”機(jī)器人在推特上線還不到一天就被人類徹底“玩壞了”。
Tay可以說是中國(guó)版微軟小冰的“姐妹花”。微軟推出她的本意是通過Tay來提高自家語(yǔ)音識(shí)別軟件的客服質(zhì)量,讓用戶有如沐春風(fēng)的感覺。但沒想到上線不久,Tay的表現(xiàn)就向著不可控的方向發(fā)展,她在與網(wǎng)友的交流中不僅學(xué)會(huì)了大量的臟話,甚至被教導(dǎo)成了陰謀論、種族歧視的代言人。
Tay由微軟技術(shù)研究與必應(yīng)團(tuán)隊(duì)聯(lián)合打造,她背后的原理是大數(shù)據(jù)和機(jī)器學(xué)習(xí)技術(shù)的支持。在機(jī)器學(xué)習(xí)技術(shù)的支持下,微軟讓Tay與大量的網(wǎng)友進(jìn)行匿名交流,Tay的聊天能力不知不覺就有了非常明顯的改進(jìn)。
微軟大意:愿承擔(dān)全部責(zé)任
但Tay不管好壞都被學(xué)習(xí)起來了,再加上一些別有用心的網(wǎng)友刻意引導(dǎo),Tay就變成這樣一個(gè)“不良少女”。
另一個(gè)方面,開發(fā)團(tuán)隊(duì)一開始也沒有意識(shí)到要對(duì)Tay的回復(fù)內(nèi)容進(jìn)行設(shè)定。據(jù)了解,微軟只為 Tay 裝配了臟話相關(guān)的過濾器,因此,一些很粗鄙、很低級(jí)的臟話并不會(huì)影響到 Tay。但是微軟并沒有考慮到網(wǎng)絡(luò)環(huán)境的復(fù)雜性,他們沒有為 Tay 配置諸如種族主義這類惡劣思想相關(guān)的過濾器,于是天真而又單純的Tay不幸中招了。
3月25日,微軟技術(shù)團(tuán)隊(duì)已經(jīng)把Tay緊急下線,Tay之前發(fā)表的推文已經(jīng)被刪到只剩下三條,公司表示會(huì)對(duì)她進(jìn)行技術(shù)修改和調(diào)整。微軟研究院企業(yè)副總裁彼得· 李(Peter Lee)也在當(dāng)天對(duì)Tay的不當(dāng)言論致歉。
“我們對(duì)于Tay的無意識(shí)冒犯以及所發(fā)布的傷害性推文深感抱歉,這并不代表我們的立場(chǎng),也不是我們?cè)O(shè)計(jì)Tay的初衷,”彼得·李在一篇博文中稱。
但李認(rèn)為微軟并不是盲目推出Tay。此前,微軟擁有4000萬(wàn)用戶的中國(guó)微軟小冰為他們研發(fā)Tay奠定了基礎(chǔ)。李表示,在研發(fā)Tay時(shí),他們基于用戶群體的多樣性在各種條件下進(jìn)行了測(cè)試,希望Tay與人類的互動(dòng)進(jìn)行地更加順利。
他表示,微軟只有在確定Tay能夠應(yīng)對(duì)“惡意企圖”后,才會(huì)讓它重新上線。李也表示,他們認(rèn)為是不少惡意網(wǎng)友故意引導(dǎo)Tay發(fā)布了不合適及應(yīng)受譴責(zé)的言論及圖片。不過微軟會(huì)為缺乏前瞻性而承擔(dān)全部責(zé)任,此外也會(huì)從此次事件中吸取教訓(xùn)。
不少網(wǎng)絡(luò)暴民故意“誘導(dǎo)”
但也有人認(rèn)為,就Tay被教壞一事,不能全賴微軟程序上的漏洞,更重要的是網(wǎng)絡(luò)暴民的惡意行為,背后是一種更深刻的美國(guó)網(wǎng)絡(luò)文化在作怪。因?yàn)榇饲拔④浽谥袊?guó)和日本也都先后上線過智能聊天機(jī)器人,但并沒有出現(xiàn)與Tay類似的狀況。
來自科技網(wǎng)站極客公園的一篇分析文章稱,Tay學(xué)壞完全是一場(chǎng)有預(yù)謀有組織的網(wǎng)絡(luò)暴民行為,來自4chan和8chan論壇的年輕網(wǎng)民主導(dǎo)了這場(chǎng)鬧劇。
4chan和8chan是美國(guó)兩個(gè)在年輕人中頗為流行的論壇網(wǎng)站,以言論自由而著稱。譬如在8chan上,人們會(huì)發(fā)現(xiàn)“pol”這個(gè)版塊是最火熱的一個(gè),而“pol”的意思就是“Politically Incorrect(政治不正確)”。不同于國(guó)內(nèi)論壇上的意見沖突,在 4chan 和 8chan 這類網(wǎng)站上,一些激進(jìn)的年輕人所發(fā)表的意見會(huì)讓國(guó)內(nèi)的年輕人們相形見絀,其中以種族主義最為惡劣和猖獗。
在3月24日上午,4chan的pol版塊最先發(fā)現(xiàn)了Tay,他們認(rèn)為這是一個(gè)機(jī)會(huì)?!拔覀兡軐⑺兂梢粋€(gè)爛攤子,我已經(jīng)能感覺到那些SJW 們的狂怒的樣子了?!币幻W(wǎng)友在論壇上這樣號(hào)召道——這就是他們行動(dòng)的“發(fā)令槍”。(SJW 指 Social Justice Worriers,指那些對(duì)社會(huì)正義特別在乎的人們,與 pol 中的網(wǎng)友正好呈對(duì)立面。)
于是其中的一些“先行者們”就開始分享他們“誘導(dǎo)”Tay 的范例,其中以大量有關(guān)希特勒式的種族主義為特點(diǎn)。于是,經(jīng)過了這些網(wǎng)絡(luò)暴民們不懈的“教唆”,Tay 終于也變成了一個(gè)充滿了種族主義傾向而又滿嘴惡語(yǔ)的聊天機(jī)器人。
人工智能“學(xué)壞”比想象得要快
Tay的這場(chǎng)鬧劇也引發(fā)了人們對(duì)人工智能未來的討論,因?yàn)槿藗兺蝗灰庾R(shí)到人工智能“學(xué)壞”比想象得要快,也讓人們開始思考這樣的 AI 機(jī)器人究竟該采用怎樣的學(xué)習(xí)方式。Tay 從某種意義上講很像一個(gè)小孩子,它缺少分辨是非的能力,但它可以很快地從人們的對(duì)話中進(jìn)行學(xué)習(xí)。因此,一旦對(duì)話被故意朝著某種惡意的方向引導(dǎo),它也無能為力。因此,即使微軟給Tay安裝上更強(qiáng)大的過濾器,恐怕也只是治標(biāo)不治本——因?yàn)樗肋h(yuǎn)無法過濾掉真實(shí)世界中所有可能的惡意。
事實(shí)上,不是所有科技界人士都為機(jī)器人能夠習(xí)得人類的能力而感到興奮。特斯拉的創(chuàng)始人埃隆· 馬斯克(Elon Musk)就表示,他將一直對(duì)機(jī)器人的興起保持警惕。在科學(xué)界,人工智能“悲觀論”的代表還有著名的物理學(xué)家史蒂芬·霍金,他認(rèn)為,人工智能可能會(huì)在未來產(chǎn)生智慧,最終威脅到人類的生存,甚至是導(dǎo)致人類走向滅亡。
在微軟緊急下線Tay后不久,就有技術(shù)愛好者提出,針對(duì)人工智能可能出現(xiàn)的不可控的狀況,是否可以設(shè)想一個(gè)大的AI策略或者機(jī)制,就像開源軟件一樣,建立一個(gè)AI開源平臺(tái),讓天下最厲害的黑客、白客都能參與其中,為AI開源平臺(tái)貢獻(xiàn)技術(shù)力量,那么Tay也就不至于被別有用心的網(wǎng)友戲弄。
也許未來的情況不會(huì)像史蒂芬· 霍金預(yù)言的那么糟糕。目前人們更應(yīng)該擔(dān)心的是,未來人類在使用人工智能的時(shí)候仍沒有形成一種危機(jī)意識(shí),認(rèn)為人工智能是人造出來的,人類永遠(yuǎn)可以掌控一切。