如何用 Ollama 在本地部署 DeepSeek R1 模型?全網(wǎng)最簡單教程來了!
第一步:安裝 Ollama,在官網(wǎng)下載安裝即可
第二步:部署 DeepSeek R1 模型
1. 下載模型,在終端(terminal)輸入:
?ollama pull deepseek-r1:14b
根據(jù)你的顯存大小選擇版本,16g就可以選擇14b,200g顯存可以選擇70b
2. 下載完成后,直接在終端運行:
?ollama run deepseek-r1:14b
3. 然后就可以和模型對話了
第三步:自定義模型
1. 創(chuàng)建一個名為 Modelfile 的純文本文件,不要有后綴,內(nèi)容示例如下:?
FROM deepseek-r1:14b
PARAMETER temperature 0.7
PARAMETER top_p 0.9
SYSTEM '''
你是一個專業(yè)的 AI 助手,擅長回答技術(shù)問題、總結(jié)文檔,提供準(zhǔn)確又簡潔的答案。
'''
2. 輸入以下命令生成一個自定義模型:?
ollama create my-deepseek -f /path/to/Modelfile
3.然后,運行你的專屬定制模型:
ollama run my-deepseek
恭喜!你已經(jīng)擁有一個完全根據(jù)你需求定制的 AI 助手啦!
第四步:微調(diào)模型(進(jìn)階玩法)
如果你有特定任務(wù)的數(shù)據(jù),可以 在 modelfile 中加入json 文件的地址,讓 Ollama 直接微調(diào)模型,讓模型更懂你!
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點擊舉報。