然而,隨著用戶數(shù)量的激增,一些問題也隨之而來:連接不上、響應緩慢等現(xiàn)象時有發(fā)生。這讓不少用戶體驗大打折扣。但好消息是,這些問題并非無解!
作為一款開源AI項目,DeepSeek始終倡導本地化部署的理念。本地搭建正是解決這些問題的最佳方案!通過將模型部署在自己的服務器上,用戶可以完全避免網絡延遲和連接問題,同時還能享受更高的運行效率和更低的使用成本。
如果您正在尋找一種穩(wěn)定、高效且靈活的AI解決方案,本地搭建DeepSeek無疑是一個明智的選擇。無論是個人開發(fā)者還是企業(yè)用戶,都可以輕松實現(xiàn)本地部署,體驗深度求索的強大能力。
首先,前往ollama官網,下載ollama
點擊下載按鈕
根據(jù)自身,選擇對應的操作系統(tǒng)
選擇對應操作系統(tǒng)后,點擊“download”,然后就是一路下一步的安裝。
出現(xiàn)這個界面,即安裝成功
安裝完成后,在官網左上角點擊“Models”
選擇我們今天的主角“deepseek-r1”,在標簽處根據(jù)自身顯卡顯存情況,選擇相對應的模型(模型越大,需要的顯存也就越大,效果自然也就越好)
小編這里用“14b”的來進行演示,選擇對應的標簽后,在右側就有對應的命令
點擊箭頭所示復制按鈕,將命令復制后,粘貼進命令提示符中
就自行開始下載了,待下載完成后就可開始使用了!
默認情況下,ollama會安裝在C盤,且模型較大,占用離譜。如何修改呢?
C:\Users\%username%\AppData\Local\Programs\Ollama
將該文件夾剪切至你想保存的位置
雙擊“path”
將ollama的新路徑輸入。
同樣是在環(huán)境變量這里,在下方的系統(tǒng)變量中,選擇新建
變量名
OLLAMA_MODELS
變量值
你想保存模型的路徑
命令提示符的使用既不方便,也不美觀。但ollama支持Web UI,使用起來就方便多了!
這里提供一個瀏覽器擴展【Page Assist】
添加擴展后,選擇模型,并且在“RAG設置”中,也選擇深度求索模型后,即可。
新年快樂!