DeepSeek本地部署
本地部署超級簡單,只需要兩步。
第一步:下載Ollama并安裝
下載:https://ollama.com/,下載可能會有點慢,如果有夸克云盤,也可以從云盤中下載,地址:https://pan.quark.cn/s/dc47081e48c7
安裝:下載完成,直接雙擊安裝即可
安裝完成后,會在C:\Users\77559\.ollama看Ollama文件夾,后續(xù)本地版DeepSeek會安裝到這個文件夾中
第二步:安裝DeepSeek
進入Ollama官網(wǎng),點擊模型
選擇DeepSeek-r1模型
根據(jù)自己電腦的配置,選擇不同大小的模型,我自己試了一下,如果電腦運行內(nèi)存是8G,可以選擇1.5b,如果是16G,可以選擇7b。
選擇完成之后,點擊右側(cè)復(fù)制按鈕。
打開命令提示符,Win+R,輸入cmd回車
把剛才復(fù)制的粘貼過來,回車就可以了
進度條完成,提示Success就可以直接使用了
測試入下:
通過API調(diào)用
登錄DeepSeek官網(wǎng)https://www.deepseek.com/進入API開放平臺,需要注冊賬號。
創(chuàng)建API Key,API Key只能在創(chuàng)建時復(fù)制,需要復(fù)制好再關(guān)閉。
有了API Key之后,我們就能正常調(diào)用了。
通過Cherry Studio調(diào)用
Cherry Studio是一個非常方便的工具,我們可以通過他來調(diào)研本地部署的模型,DeepSeek官網(wǎng)的r1模型,以及硅基流動上部署的模型。
下載地址:https://cherry-ai.com/,
夸克云網(wǎng)盤:https://pan.quark.cn/s/2050bd951a6e
安裝完成之后,可以添加硅基流動,深度求索以及Ollama三個模型。
硅基流動:
深度求索
Ollama
Ollama是本地模型,不需要API Key,沒有網(wǎng)絡(luò)時,也可以使用。調(diào)用時,可以選擇三個模型
本地部署的R1模型,也具備思考能力:
同樣的問題,聯(lián)網(wǎng)的深度求索模型,思考能力更強,代碼更規(guī)范:
硅基流動的R1模型與DeepSeek官網(wǎng)結(jié)果一樣,但是響應(yīng)市場更久。