本地部署DeepSeek-R1大模型
https://ollama.com/
我們點“Download”下載:
接下來會自動匹配你的操作系統(tǒng),如果沒有問題,點擊下載鏈接下載安裝文件(我的電腦是WINDOWS操作系統(tǒng),系統(tǒng)要求Win10以上,安裝文件有745M):
2、下載一個Chrome插件:Page Assist,這是一個可以在瀏覽器里運行本地AI模型的插件,Edge瀏覽器也適用,插件地址:
https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo
1、雙擊下載好的安裝文件,OllamaSetup.exe。
2、安裝好以后它會自動運行,在任務(wù)欄我們可以看到:
1.5B Qwen DeepSeek R1
ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R1
ollama run deepseek-r1:7b
8B Llama DeepSeek R1
ollama run deepseek-r1:8b
14B Qwen DeepSeek R1
ollama run deepseek-r1:14b
32B Qwen DeepSeek R1
ollama run deepseek-r1:32b
70B Llama DeepSeek R1
ollama run deepseek-r1:70b
1、在命令行直接輸入對話:
2、關(guān)閉對話后,如果要重新運行,同樣地,我們輸入以下命令,不過,這次它不會再去拉取模型了:
ollama run deepseek-r1:1.5b
3、在瀏覽器中運行,點擊插件,選擇模型:
我們點擊右邊的“設(shè)置”,選擇RAG設(shè)置,選擇文本嵌入模型,其他的暫時不動,記得保存:
我們試一下,問一個推理問題:昨天的明天是哪天?
回答正確,速度也很快!不過有點遺憾的是,我再問它同樣的問題的時候,它就回答錯了??赡苁菂?shù)較小的關(guān)系,我在它官方網(wǎng)站上連續(xù)兩次提問:
“昨天的今天是哪天?
它都準(zhǔn)確地回答是“今天”。
1、本地部署成功,但是運行速度有時候有點卡,這跟電腦配置有關(guān)系。
2、除非是沒有任何網(wǎng)絡(luò),我覺得本地模型的意義不是很大,一則電腦硬件實在有限,運行速度慢,二則模型的參數(shù)量太小,精度不高,功能有限。我后來又下載了一個7B的模型,運行速度就慢得很,差點死機(jī)。
3、如果把數(shù)據(jù)安全保密放在第一位的,我們選擇本地模型沒毛病,特別是要使用專門的知識庫進(jìn)行訓(xùn)練的。這時候我們應(yīng)該考慮提升電腦硬件配置啦。
今天就到這里,我們下期再會!