一個(gè)叫ChatGPT的AI會說謊!

最近,ChatGPT 可謂之甚囂塵上。不光是人工智、機(jī)器學(xué)習(xí)的人非常關(guān)注,甚至于各行各業(yè)的人都來嘗試一下,體會一下人工智能帶來的科技快感。

但是用的越多發(fā)現(xiàn)問題越多,已經(jīng)有網(wǎng)友發(fā)現(xiàn),ChatGPT 會說謊,而且是撒一個(gè)謊,再用更多的謊去圓的情況。

image

ChatGPT的謊言

我嘗試問了ChatGPT一個(gè)問題:“千字文是誰寫的?”他回復(fù)的答案是:“秦始皇”。

image

如果第一個(gè)問題不能說明問題,我又問第二個(gè)問題:“秦始皇還寫了什么文章?”,回答是《紀(jì)秦始皇》、《紀(jì)自治原則》、《訓(xùn)諭》、《臣下規(guī)》。

image

然后我忍不住查了這幾篇文章,好像都不是秦始皇所著,或者根本沒有。
image
image

網(wǎng)上類似的問題還有很多很多。

如果一個(gè)問題回答錯(cuò)誤,或許可以理解為其訓(xùn)練模型不夠完整,或者數(shù)據(jù)量不足。但是它用第二個(gè)虛構(gòu)的答案來掩飾第一個(gè)問題,就有點(diǎn)超出正常的范圍了。

由此可見,ChatGPT 通過語言模型練習(xí)之后,已經(jīng)非常像一個(gè)人類,甚至有了“撒謊”這項(xiàng)本領(lǐng)。而這不免又引起擔(dān)憂。人工智能的未來到底是造福人類還是毀滅人類?

人工智能究竟是造福還是毀滅?

image

1942年,阿西莫夫在短片小說"Runaround"(《環(huán)舞》)中首次提出了三定律:

  • 第一條:機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
  • 第二條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾。
  • 第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。

在科幻片和科幻小說的設(shè)定中,這三條鐵律是被植入機(jī)器人底層的。但是顯然這是設(shè)定,而非事實(shí)。

即使保證三條鐵律的情況下,人工智能依然可以通過撒謊等方式來造成一定的危害。比如潛移默化的影響一個(gè)人的思想,一個(gè)人的態(tài)度。而如果這個(gè)人是一國之領(lǐng)導(dǎo)人,產(chǎn)生的后果可能世界大戰(zhàn)。

image

從1950年的圖靈機(jī);到1964年,聊天機(jī)器人的誕生;1997年,IBM公司的“深藍(lán)”戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫;再到2017年,AlphaGo戰(zhàn)勝世界圍棋冠軍柯潔;再到如今看似無所不能的ChatGPT。人工智能已經(jīng)越來越近,但是也越來越危險(xiǎn)。

正如360創(chuàng)始人周鴻祎所說:ChatGPT的最大安全問題就是產(chǎn)生自我意識之后是否能被控制。人工智能亦是如此。
image

基于龐大的數(shù)據(jù)庫和強(qiáng)大的運(yùn)算能力,人工智能肯定能獲得遠(yuǎn)超人類的能力,關(guān)鍵在于未來的人工智能是否能受控于人。

在人工智能探索的道路上,人類或許還有很多路需要走。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

推薦閱讀更多精彩內(nèi)容