最近,ChatGPT 可謂之甚囂塵上。不光是人工智、機(jī)器學(xué)習(xí)的人非常關(guān)注,甚至于各行各業(yè)的人都來嘗試一下,體會一下人工智能帶來的科技快感。
但是用的越多發(fā)現(xiàn)問題越多,已經(jīng)有網(wǎng)友發(fā)現(xiàn),ChatGPT 會說謊,而且是撒一個(gè)謊,再用更多的謊去圓的情況。
ChatGPT的謊言
我嘗試問了ChatGPT一個(gè)問題:“千字文是誰寫的?”他回復(fù)的答案是:“秦始皇”。
如果第一個(gè)問題不能說明問題,我又問第二個(gè)問題:“秦始皇還寫了什么文章?”,回答是《紀(jì)秦始皇》、《紀(jì)自治原則》、《訓(xùn)諭》、《臣下規(guī)》。
網(wǎng)上類似的問題還有很多很多。
如果一個(gè)問題回答錯(cuò)誤,或許可以理解為其訓(xùn)練模型不夠完整,或者數(shù)據(jù)量不足。但是它用第二個(gè)虛構(gòu)的答案來掩飾第一個(gè)問題,就有點(diǎn)超出正常的范圍了。
由此可見,ChatGPT 通過語言模型練習(xí)之后,已經(jīng)非常像一個(gè)人類,甚至有了“撒謊”這項(xiàng)本領(lǐng)。而這不免又引起擔(dān)憂。人工智能的未來到底是造福人類還是毀滅人類?
人工智能究竟是造福還是毀滅?
1942年,阿西莫夫在短片小說"Runaround"(《環(huán)舞》)中首次提出了三定律:
- 第一條:機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
- 第二條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾。
- 第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。
在科幻片和科幻小說的設(shè)定中,這三條鐵律是被植入機(jī)器人底層的。但是顯然這是設(shè)定,而非事實(shí)。
即使保證三條鐵律的情況下,人工智能依然可以通過撒謊等方式來造成一定的危害。比如潛移默化的影響一個(gè)人的思想,一個(gè)人的態(tài)度。而如果這個(gè)人是一國之領(lǐng)導(dǎo)人,產(chǎn)生的后果可能世界大戰(zhàn)。
從1950年的圖靈機(jī);到1964年,聊天機(jī)器人的誕生;1997年,IBM公司的“深藍(lán)”戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫;再到2017年,AlphaGo戰(zhàn)勝世界圍棋冠軍柯潔;再到如今看似無所不能的ChatGPT。人工智能已經(jīng)越來越近,但是也越來越危險(xiǎn)。
正如360創(chuàng)始人周鴻祎所說:ChatGPT的最大安全問題就是產(chǎn)生自我意識之后是否能被控制。人工智能亦是如此。基于龐大的數(shù)據(jù)庫和強(qiáng)大的運(yùn)算能力,人工智能肯定能獲得遠(yuǎn)超人類的能力,關(guān)鍵在于未來的人工智能是否能受控于人。
在人工智能探索的道路上,人類或許還有很多路需要走。