1簡(jiǎn)介
隨著人工智能技術(shù)的飛速發(fā)展,大語(yǔ)言模型(Large Language Models, LLMs)逐漸從云端走向本地,為開發(fā)者、研究者和技術(shù)愛好者提供了更靈活、更私密的應(yīng)用可能。國(guó)產(chǎn)DeepSeek 作為一款高效且功能強(qiáng)大的開源大模型,憑借其毫不遜色于Chatgpt的推理能力和對(duì)中文場(chǎng)景的深度適配,成為許多用戶探索本地智能化的首選工具。
然而,對(duì)于非專業(yè)開發(fā)者或剛接觸本地部署的用戶而言,復(fù)雜的配置流程、環(huán)境依賴和資源管理往往令人望而卻步。本文旨在通過極簡(jiǎn)的步驟、清晰的說明和實(shí)用的技巧,幫助小白用戶在最短時(shí)間內(nèi)完成從零部署的流程。
2環(huán)境介紹
windows:win11
3安裝ollama
Ollama 是一個(gè)提供開源、簡(jiǎn)便且高效的工具平臺(tái),旨在使開發(fā)者能夠在本地環(huán)境中運(yùn)行和部署大型語(yǔ)言模型(LLMs)。Ollama 可以讓用戶輕松地運(yùn)行一些主流的、開源的 LLM 模型,而無(wú)需依賴云服務(wù),支持在本地服務(wù)器或個(gè)人計(jì)算機(jī)上進(jìn)行推理任務(wù)。因此我們deepseek的載體就是ollama。在官網(wǎng)下載ollama(安裝包也可在本文附錄A獲?。?/span>
安裝ollama
4安裝deepseek模型
打開ollama官網(wǎng),右上角models找到deepseek模型
選擇模型版本,在人工智能領(lǐng)域,模型名稱中的 1.5B、7B、8B 等數(shù)字代表模型的參數(shù)量(Parameters),其中 B 是英文 Billion(十億) 的縮寫。參數(shù)越多,模型通常更“聰明”(能處理更復(fù)雜的任務(wù)),但對(duì)硬件資源(顯存、內(nèi)存)的要求也更高。個(gè)人用戶可優(yōu)先 7B(通用性最佳),若設(shè)備較弱則選 1.5B,開發(fā)者可選 8B。找到對(duì)應(yīng)的命令,復(fù)制ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
5使用deepseek
打開cmd,輸入所下版本同樣的命令,則可以使用deepseek:ollama run deepseek-r1:1.5b
6ollama大模型安裝路徑更改
如果我們使用windows系統(tǒng)安裝,ollama默認(rèn)安裝在系統(tǒng)盤,而往往系統(tǒng)盤的容量不夠大,我們可以將deepseek安裝到其他盤中,但目前,ollama
本身并沒有提供直接的、官方的選項(xiàng)來(lái)修改模型存儲(chǔ)路徑。我們可以使用符號(hào)鏈接的方式將對(duì)應(yīng)文件夾鏈接到D盤文件夾,這樣ollama讀寫文件只會(huì)讀寫對(duì)應(yīng)D盤的鏈接文件夾。Linux/macOS:
~/.ollama/
Windows:
C:\Users\<YourUser>\.ollama\
在D盤創(chuàng)建一個(gè)新文件夾,如用管理員打開cmd,進(jìn)行符號(hào)鏈接,然后再下載deepseek文件夾:mklink /D C:\Users\<YourUser>\.ollama D:\OllamaModels
7寫在最后
本文主要介紹了 DeepSeek 的最簡(jiǎn)安裝方法,后續(xù)將繼續(xù)更新,介紹如何將 DeepSeek 集成到圖形化界面中。關(guān)注公眾號(hào)輸入,deepseek即可獲得對(duì)應(yīng)安裝包
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)
點(diǎn)擊舉報(bào)。