Mac版Chatbox連接本地Ollama服務找不到模型

問題描述


Ollama和本地模型確認正常安裝,并且用命令行啟動可以正常使用

命令行可以正常使用

安裝Chatbox后,設置模型提供方為OLLAMA API,模型的下拉選項為空:

配置都正確,但是無法讀取本地模型

將本地Ollama服務配置成遠程Ollama服務后,就可以加載出來了:

但問題是,Chatbox的教程里說,不用配置遠程服務,就可以直接讀取本地服務?。。?!
雖然現在也能用,但是我不想配置成遠端,我就想作為本地服務用?。?!

解決方案


經過我的不懈努力,終于找到了問題所在!
安裝Chatbox,一定不要通過AppStore安裝,要去官網自行下載安裝包進行安裝,官網的包不會出現這個問題!

問題解決~

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容