LLaMA-Factory 微調(diào)開(kāi)源大模型

????????接觸大模型有一段時(shí)間了,最近學(xué)習(xí)了一下使用LLaMA-Factory來(lái)對(duì)開(kāi)源大模型進(jìn)行微調(diào),LLaMA-Factory是一個(gè)非常好用的開(kāi)源微調(diào)大模型工具,GitHub:LLaMA-Facotry,相關(guān)的介紹可以直接去官方網(wǎng)站上去查看。

????????本文基于Ubuntu系統(tǒng)對(duì)使用LLaMA-Factory來(lái)對(duì)qwen2-1.5B模型進(jìn)行微調(diào);

1.安裝部署

1.1.下載LLaMA-Factory

git clone https://github.com/hiyouga/LLaMA-Factory.git

1.2.安裝conda

????????在Ubuntu上安裝Conda,可以使用Miniconda,這是Conda的一個(gè)輕量級(jí)版本。以下是安裝Miniconda的步驟:
????下載Miniconda安裝腳本:

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

????腳本可執(zhí)行:

chmod +x Miniconda3-latest-Linux-x86_64.sh

????運(yùn)行安裝腳本:

./Miniconda3-latest-Linux-x86_64.sh

????安裝完成后,會(huì)在home下會(huì)創(chuàng)建miniconda3目錄,然后會(huì)自動(dòng)在.bashrc下面加入PATH

export PATH="/home/user/miniconda3/bin:$PATH"

????????重啟終端或重新加載配置文件(例如,使用source ~/.bashrc)以激活Conda環(huán)境,安裝完成后,您可以通過(guò)運(yùn)行conda --version來(lái)檢查Conda是否正確安裝。
????????ubuntu中安裝好conda之后,系統(tǒng)終端界面前面出現(xiàn)(base)字樣,永久取消base字樣辦法:

1、在新終端中輸入:vim ~/.bashrc
2、在打開(kāi)的文件最后加上一句命令:conda deactivate
3、重新打開(kāi)終端即可消除base字樣。

1.3.創(chuàng)建虛擬環(huán)境

????創(chuàng)建一個(gè)名字為llama_factory的虛擬環(huán)境,只需創(chuàng)建一次

conda create --name llama_factory python=3.10

????激活虛擬環(huán)境

conda activate llama_factory

????進(jìn)入LLaMA-Factory文件夾

cd LLaMA-Factory

????安裝配置文件

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e .[torch,metrics]

1.4.下載開(kāi)源大模型

????????可以選擇自己常用的 LLM,包括 ChatGLM,BaiChuan,Qwen,LLaMA 等,把下載好的模型保存到LLaMA-Factory文件夾下。
????????下載 qwen2-1.5B模型的命令:

git lfs install
git clone https://huggingface.co/Qwen/Qwen2-1.5B # huggingface下載
git clone https://www.modelscope.cn/qwen/Qwen2-1.5B.git # modelscope下載

????下載不下來(lái)的話,直接翻墻到對(duì)應(yīng)目錄,點(diǎn)擊下載也可以;
????下載完,新建Qwen/Qwen2-1.5B模型文件夾,將下載內(nèi)容放入該文件夾,然后將模型文件夾放在LLaMA-Factory目錄下,供后面訓(xùn)練的時(shí)候使用;

2.訓(xùn)練

????????在LLaMA-Factory項(xiàng)目中,單顯卡可以用命令或web頁(yè)面訓(xùn)練,多顯卡只能用用命令的方式,當(dāng)前系統(tǒng)是單顯卡,所以使用的web頁(yè)面訓(xùn)練,另外web頁(yè)面也比較直觀,在LLaMA-Factory目錄下,執(zhí)行以下命令:

python3 src/webui.py

????執(zhí)行完后,終端會(huì)顯示如下:

終端顯示

Web界面如下

image

????界面分上下兩部分:

????上半部分是模型訓(xùn)練的基本配置,有如下參數(shù):

模型名稱:可以使用常用的模型,包括 ChatGLM,BaiChuan,Qwen,LLaMA 等
模型路徑:輸入框填寫(xiě)我們之前下載的模型的地址。
微調(diào)方式:
????full:將整個(gè)模型都進(jìn)行微調(diào)。
????freeze:將模型的大部分參數(shù)凍結(jié),只對(duì)部分參數(shù)進(jìn)行微調(diào)。
????lora:將模型的部分參數(shù)凍結(jié),只對(duì)部分參數(shù)進(jìn)行微調(diào),但只在特定的層上進(jìn)行微調(diào)。
????模型斷點(diǎn)(適配器):在未開(kāi)始微調(diào)前為空,微調(diào)一次后可以點(diǎn)擊刷新斷點(diǎn)(適配器)按鈕,會(huì)得到之前微調(diào)過(guò)的斷點(diǎn)(適配器)。

下半部分是一個(gè)頁(yè)簽窗口,分為T(mén)rain、Evaluate、Chat、Export四個(gè)頁(yè)簽,
????微調(diào)先看Train界面:

訓(xùn)練階段:選擇訓(xùn)練階段,分為預(yù)訓(xùn)練(Pre-Training)、指令監(jiān)督微調(diào)(Supervised Fine-Tuning)、獎(jiǎng)勵(lì)模型訓(xùn)練(Reward Modeling)、PPO 、DPO 五種

這里我們選擇指令監(jiān)督微調(diào)(Supervised Fine-Tuning)。

數(shù)據(jù)集
????數(shù)據(jù)格式:

[
????{
????????"instruction": "用戶指令(必填)",#通常用于存儲(chǔ)指示模型生成輸出的指令
????????"input": "用戶輸入(選填)",
????????"output": "模型回答(必填)",
????????"system": "系統(tǒng)提示詞(選填)",
????????"history": [
????????????????["第一輪指令(選填)", "第一輪回答(選填)"],
????????????????["第二輪指令(選填)", "第二輪回答(選填)"]
????????]
????}
]

????????如果采用自行準(zhǔn)備的數(shù)據(jù)集,要在 LLaMA Factory目錄下data目錄下的dataset_info.json添加新數(shù)據(jù)集信息,llm_data.json是按照上面的數(shù)據(jù)格式構(gòu)造的訓(xùn)練樣本數(shù)據(jù)。

"llm_type":{
????"file_name":"llm_data.json"
}

????????以上都設(shè)置及準(zhǔn)備好后,點(diǎn)擊開(kāi)始就開(kāi)始微調(diào)訓(xùn)練了,輸出目錄為:

LLaMA-Factory/saves/Qwen2-1.5B/lora/train_2024-07-16-14-53-45

????????訓(xùn)練過(guò)程中可以在終端下看到詳細(xì)日志輸出:

train-progress

訓(xùn)練完成后,會(huì)在webui界面顯示訓(xùn)練完畢。

3.驗(yàn)證推理

????1.在網(wǎng)頁(yè)界面,選擇Chat,加載模型,檢查點(diǎn)路徑:train_2024-07-16-14-53-45,推理數(shù)據(jù)類型:bfloat16,加載完成后,就可以進(jìn)行聊天了

image

????2.導(dǎo)出模型,選擇Export選項(xiàng),導(dǎo)出目錄/home/LLM/QwenSft

image

然后可以通過(guò)代碼來(lái)進(jìn)行驗(yàn)證,實(shí)現(xiàn)如下:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

torch.manual_seed(0)
path = '/home/LLM/QwenSft'

def chat_with_qwen(content):
    tokenizer = AutoTokenizer.from_pretrained(path)
    model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.bfloat16, device_map='cpu', trust_remote_code=True)
    messages = [
       {"role": "system", "content": "You are a helpful assistant."},
       {"role": "user", "content": content}
    ]

    text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
    model_inputs = tokenizer([text], return_tensors="pt").to("cpu")
    generated_ids = model.generate(**model_inputs,max_new_tokens=512)
    generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]

    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    print(response)

????本文簡(jiǎn)單總結(jié)了一下使用LLaMA-Factory開(kāi)源工具來(lái)訓(xùn)練開(kāi)源大模型的一個(gè)基本流程,后面會(huì)繼續(xù)深入了解,有新的收獲會(huì)繼續(xù)更新文章,感謝https://zhuanlan.zhihu.com/p/691239463

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,461評(píng)論 6 532
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,538評(píng)論 3 417
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事。” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 176,423評(píng)論 0 375
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 62,991評(píng)論 1 312
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 71,761評(píng)論 6 410
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 55,207評(píng)論 1 324
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,268評(píng)論 3 441
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 42,419評(píng)論 0 288
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,959評(píng)論 1 335
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 40,782評(píng)論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 42,983評(píng)論 1 369
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,528評(píng)論 5 359
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,222評(píng)論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 34,653評(píng)論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 35,901評(píng)論 1 286
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 51,678評(píng)論 3 392
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 47,978評(píng)論 2 374

推薦閱讀更多精彩內(nèi)容