国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
實測!本地部署免費開源大模型:DeepSeek-R1,能力媲美OpenAI-4o

內(nèi)容提要 

  • 本地部署DeepSeek-R1大模型

大家好,我是冷水泡茶。
最近有個AI大模型DeepSeek非?;穑阅茏吭?,直接挑戰(zhàn)GPT-4o,而且免費開源,還可以本地部署,強(qiáng)悍得不要不要的。關(guān)鍵的一點,它是目前為止,最強(qiáng)悍的國產(chǎn)大模型。
我們今天來試一試本地部署,不用聯(lián)網(wǎng)也能使用。
1、下載 Ollama,這是一個用于本地運行AI模型的工具平臺,下載地址:

https://ollama.com/

我們點“Download”下載:

接下來會自動匹配你的操作系統(tǒng),如果沒有問題,點擊下載鏈接下載安裝文件(我的電腦是WINDOWS操作系統(tǒng),系統(tǒng)要求Win10以上,安裝文件有745M):

2、下載一個Chrome插件:Page Assist,這是一個可以在瀏覽器里運行本地AI模型的插件,Edge瀏覽器也適用,插件地址:

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

也可以在應(yīng)用商店搜:Page Assist
3、Python(這個不確定需不需要,在向幾個AI提問如何用ollama部署本地大模型的時候,都提到安裝Python以及相關(guān)依賴庫,反正我的電腦上是安裝了Python的)。

安裝

1、雙擊下載好的安裝文件,OllamaSetup.exe。

2、安裝好以后它會自動運行,在任務(wù)欄我們可以看到:

我們打開命令行,執(zhí)行以下命令安裝相應(yīng)的模型,顯存4G以下的,我們選1.5B的(我的電腦顯存只有2G)。

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b

等待拉取模型成功

使用

1、在命令行直接輸入對話:

2、關(guān)閉對話后,如果要重新運行,同樣地,我們輸入以下命令,不過,這次它不會再去拉取模型了:

ollama run deepseek-r1:1.5b

3、在瀏覽器中運行,點擊插件,選擇模型:

我們點擊右邊的“設(shè)置”,選擇RAG設(shè)置,選擇文本嵌入模型,其他的暫時不動,記得保存

我們試一下,問一個推理問題:昨天的明天是哪天?

回答正確,速度也很快!不過有點遺憾的是,我再問它同樣的問題的時候,它就回答錯了??赡苁菂?shù)較小的關(guān)系,我在它官方網(wǎng)站上連續(xù)兩次提問:

“昨天的今天是哪天?

它都準(zhǔn)確地回答是“今天”。

寫在最后

1、本地部署成功,但是運行速度有時候有點卡,這跟電腦配置有關(guān)系。

2、除非是沒有任何網(wǎng)絡(luò),我覺得本地模型的意義不是很大,一則電腦硬件實在有限,運行速度慢,二則模型的參數(shù)量太小,精度不高,功能有限。我后來又下載了一個7B的模型,運行速度就慢得很,差點死機(jī)。

3、如果把數(shù)據(jù)安全保密放在第一位的,我們選擇本地模型沒毛病,特別是要使用專門的知識庫進(jìn)行訓(xùn)練的。這時候我們應(yīng)該考慮提升電腦硬件配置啦。

今天就到這里,我們下期再會!


~~~~~~End~~~~~~
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
簡單兩步將Lllama、Qwen等開源大模型安裝到自己的電腦上
Ollama高效、功能齊全的LLM大模型服務(wù)工具——只需一條命令即可在本地跑語言大模型
Ollama史詩級升級,一鍵拉取運行任意Huggingface,hf-mirror GGUF格式大模型,45K個模型讓你痛快暢玩
基于 Qwen2.5
?無顯卡+純本地跑Qwen1.5版模型!0基礎(chǔ)閉眼部署指南!適用絕大部分開源模型!llama2+Mistral+Zephyr通殺!
我花了30分鐘,搭好一個本地能跑起來的大模型,飛機(jī)上都能用。
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服