一 簡介
DeepSeek-R1 模型最近在國際上和國內(nèi)都很熱,被稱為最強的開源AI模型,性能上基本上和OpenAI的最新模型O1模型不相上下,本來我一直在用它的在線版本,不過由于最近太熱導(dǎo)致了訪問異常,據(jù)說遭受到了美國的DDos攻擊,所以打算跑個本地模型試試。
二 安裝Ollama
Ollama 是一個開源的大型語言模型(LLM)服務(wù)工具,旨在幫助用戶在本地環(huán)境中部署和運行大規(guī)模預(yù)訓(xùn)練語言模型。它通過簡化模型的下載、安裝和管理流程,使得用戶能夠快速地在本地運行這些模型,并且支持多種流行模型如 LLaMA 等。
簡單的一句話概括:Ollama是基于go語言開發(fā)的簡單易用的本地大語言模型運行框架,其實和docker非常類似,只是Ollama的運行的是大語言模型。
Ollama還提供和OpenAI兼容的Restful接口,方便各種工具集成使用。
安裝過程非常簡單,到官網(wǎng)下載配套系統(tǒng)的Ollama版本即可,如下圖:
我目前電腦為MacOS,下載過程非常順利,安裝也和其他軟件的安裝方法一樣,安裝后,可以通過
curl localhost:11434
來查看ollma是否在運行了,類似docker命令,可以通過ollama list
查看已經(jīng)下載的模型,也可以通過ollama show 模型
來查看模型的具體信息。
ollama支持的命令如下:
ollama list:顯示模型列表。
ollama show:顯示模型的信息
ollama pull:拉取模型
ollama push:推送模型
ollama cp:拷貝一個模型
ollama rm:刪除一個模型
ollama run:運行一個模型
三 安裝模型
3.1 安裝模型
和docker類似,有個類似倉庫,模型倉庫,地址:
https://ollama.com/library
如下圖:
目前倉庫上最流行的deepseek-r1,模型有很多個,最小的模型1.1GB,1.5b模型,1b即10億參數(shù),這個對電腦的要求最低,沒有GPU都能跑,7b模型建議GPU內(nèi)存至少為8GB,14b模型至少為12GB顯存。
安裝的Ollma的時候,可以復(fù)制黏貼命令,回車運行,和docker類似,如果本地沒有就會自動下載。
ollama run deepseek-r1:1.5b
運行后如下:
如果在命令行上直接運行,會比較麻煩,既然ollama會啟動類似OpenAI的接口,那我們用一些UI工具來集成ollama。
3.2 安裝chatbox
chatbox是一個AI的客戶端應(yīng)用,簡單介紹如下:
Chatbox AI 是一款 AI 客戶端應(yīng)用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和網(wǎng)頁版上使用。
然后點擊左邊的"新對話",會彈出個對話框,像其他AI工具如下圖,可以進行簡單的交互,不過由于模型很小,所以準(zhǔn)確度啥的還是比較差的。
另外,如果不想裝新工具,可以用vs code 里面的continue插件來配置我們使用的DeepSeek模型,比較簡單。