OpenAI又有新聞了,這次是關于GPT-3的。此次允許用戶創建自定義版的GPT-3,只要一行命令的微調就可以定制自己的不同應用的GPT-3。據OpenAI官方表示,此項微調可以讓不同應用的準確度能直接從83%提升到95%、錯誤率可降低50%。有網友大呼:我可以直接訓練我的聊天機器人了,這樣省時又省錢。
雖然GPT-3久負盛名,不過國內嘛,除了以前的新聞報道被國內吹爆外,其他沒啥用。畢竟這貨開始沒開放,后來開放了,也沒對國內開放。在以前的報道中,見官方宣布取消GPT-3接口的等待機制,讓所有滿足條件的開發人員都可快速申請使用它,看這意思是對所有用戶開放申請了,于是好奇的機智客趕緊去官方申請,結果一看傻眼了,敢情我們就“不滿足條件”,我們國內根本沒在被允許的范圍內。
因此此次允許用戶創建自定義版,肯定也沒咱們中國國內用戶的事兒了。雖然如此,不過GPT的名氣和強大功能,的確挺讓人垂涎的。所以,既然GPT-3我們玩不了,那我們可以玩GPT-2啊,當然這里并不是說官方的GPT-2,而是開源了的,GPT-2 Chinese版本。也就是更符合我們國內用戶的中文版GPT。
簡直直接滿足好奇心。可能有了解的朋友會暗笑,這還滿足好奇心,這個不是已經老了嗎,GPT-2是哪一年的東西啦。的確如此,GPT-2相比于GPT-3的確顯得“古老”,不過機智客覺得我們玩玩,體驗一下GPT還是可以的。目前,根據GitHub上的說明,這個GPT-2的中文版是4月22之前的老版本,也就是GPT2-Chinese-old_gpt_2_chinese_before_2021_4_22。我們可以下載下來。這個是基于transformers的。所以我們在配置環境的時候,要安裝帶有transformers的requirements.txt。
當然搭建環境還是要在獨立的虛擬環境里。環境搭配好,然后就是準備中文語料,當然這個項目里也貼心地提供了——很多項目的README.md都有,比如訓練數據啦,預訓練模型啦什么的,幾乎都是手把手教了——前提是你要具備基本的編程或計算機相關知識。環境好了,語料有了,然后就可以訓練我們自己的AI了。當然現在玩這類,都需要GPU。所以是自己的主機,有比較好點的顯卡(當然是越貴越好)。
當然了,這兩年大模型一個接一個,越來越強大。時過境遷,GPT-2已然不如當年驚艷,當然不是特別新的和突出的,而且現在開源界遍地開花,也不是只有這一個開源項目可用。不過這里通過試玩一下體驗下傳說中的GPT。