国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
兩招解鎖Deepseek聊天神技,對話流暢到飛起!

原創(chuàng):貝拉Prompter

轉(zhuǎn)自貝拉Prompter

由于 Deepseek 最近服務(wù)器被擠爆,想要絲滑使用這個強(qiáng)大的 AI 大模型,非常建議你嘗試下面的方式:

1、通過納米 AI 搜索進(jìn)入 Deepseek360 專線,非常順暢 

2、部署 Deepseek 到本地,斷網(wǎng)也能用  下面貝拉給大家詳細(xì)講解這兩種方式的操作步驟,真的是保姆級教程,電腦小白看了都能輕松上手,建議收藏。本文很干,先喝口茶再開始看吧~ 

第一種方式:通過納米搜索進(jìn)入

1、從手機(jī)應(yīng)用商店搜索“納米 AI 搜索”,并進(jìn)行下載 

2、打開軟件,點擊“AI 機(jī)器人”板塊3、點擊頂部的“DeepSeek” 

4、選擇“Deepseek-R1(360 高速專線)”就可以暢快享用 DeepSeek 啦

第二種方式:部署 Deepseek 到本地電腦第一步:安裝 Ollama 模型管家 先簡單解釋一下 Ollama 的角色和作用。Ollama 是一個開源且免費的人工智能(AI)平臺,它本質(zhì)上是提供了一個平臺,讓用戶可以方便地使用不同的模型,而不需要單獨安裝每個模型的環(huán)境,不需要高性能服務(wù)器也能運行大模型?!?/p>

 很多 AI 服務(wù)都是基于云的,比如 OpenAI 的 GPT-3,需要通過互聯(lián)網(wǎng)調(diào)用 API。而 Ollama 可以在本地運行,這意味著數(shù)據(jù)處理在用戶的設(shè)備上完成,不需要上傳到云端。這對于隱私保護(hù)和數(shù)據(jù)安全來說是個優(yōu)勢。

  操作步驟:

1、我們進(jìn)入 Ollama 官網(wǎng)(https://ollama.com/),點擊下載,可以看到 Windows 和 Mac 版本都有。

2、下載完成后,雙擊 install 開始安裝(Windows 版本),或者將二維碼拖到應(yīng)用中(Mac)。Ollama 默認(rèn)安裝到系統(tǒng)路徑中。遇到需要確認(rèn)的界面,直接確認(rèn)即可。安裝完成后,啟動 Ollama,在任務(wù)欄里會出現(xiàn)一個 Ollama 的圖標(biāo)。

第二步,安裝 Deepseep

首先,打開 Ollama 的官網(wǎng)(https://ollama.com/),在頂部搜索欄中搜索 Deepseek 。

回車后就能看到 Deepseep-r1 的板塊,點擊進(jìn)入?!?/p>

進(jìn)入后,在 7b 的下拉框中選擇你需要的模型類型,根據(jù)你自己的電腦配置選擇合適的版本。

這里有個問題:怎么知道自己的電腦是哪種顯卡,多大顯存呢? 以 Windows 電腦為例,右鍵點擊“我的電腦”,選擇“管理”, 

然后選擇“設(shè)備管理器”中的“顯示適配器”,就能看到電腦的顯卡型號。

你可以在網(wǎng)上搜索這個顯卡的配置。我的顯卡是集成顯卡,網(wǎng)上說是 1G 的獨立顯存,但是和內(nèi)存混合使用。因此,我選擇下載一個 1.5B 的版本。選擇好 1.5B 版本后,右側(cè)會顯示對應(yīng)的命令行。 

怎么使用這個命令行呢?在 Windows 底部的 Windows 圖標(biāo)上右鍵選擇“終端管理員”, 

然后將 Ollama 網(wǎng)站上右側(cè)的命令行粘貼進(jìn)來,回車?!?/p>

接著,Ollama 就會開始幫我們下載 Deepseep 這個版本的模型到本機(jī)?!∪滩恍枰厥獾木W(wǎng)絡(luò)處理,直接就可以使用,而且下載速度比較快,我下載的時候是不到 10 分鐘就搞定了。 

這個模型僅有 1.1GB 的大小,甚至比一部高清電影還要??!你看看,國產(chǎn)大模型多牛逼!能夠在保證性能的同時將體積壓縮到 1.1GB,這不僅體現(xiàn)了技術(shù)上的突破,也展現(xiàn)了其在實際應(yīng)用中的巨大潛力。這種“小而強(qiáng)”的特點無疑是中國人工智能領(lǐng)域的一大亮點! 

現(xiàn)在已經(jīng)開始了把 Deepseep 安裝到本地的過程。等待模型下載完畢,Deepseep 就在我們的電腦上駐扎了。操作就是這么簡單,每個人都可以做到,全程也不需要任何費用。當(dāng)出現(xiàn)下面這個界面,就說明模型已經(jīng)下載完成啦。

第三步,本機(jī)運行 Deepseep使用 Ollama 運行已部署到本地電腦的 Deepseek 模型,有 2 種方式,分別如下: 

第 1 種方式:通過命令行運行1. 打開命令行工具:如果是 Windows 系統(tǒng),點擊開始菜單,在搜索框中輸入“CMD”或“PowerShell”并打開;如果是 macOS 系統(tǒng),打開“終端”;如果是 Linux 系統(tǒng),同樣打開“終端”?!?. 查看已安裝模型:在命令行中輸入 ollama list ,查看已經(jīng)部署好的 Deepseek 模型,確認(rèn)模型已成功部署在本地。 

3. 運行模型:輸入 ollama run deepseek-r1:[模型版本] ,如 ollama run deepseek-r1:1.5b ,按回車鍵,即可啟動模型。 4. 與模型交互:模型啟動后,會出現(xiàn)輸入提示,在命令行中輸入你想要詢問的問題或指令,模型會進(jìn)行回答?!?. 退出模型:若想退出與模型的交互,在命令行中輸入 /bye 即可。  最終的運行界面如下: 

第 2 種方式:通過 Chatbox 運行同樣,簡單介紹一下 Chatbox 吧。它是一款開源的 AI 客戶端,支持各種主流模型的 API 接入,淘寶買的中轉(zhuǎn) API 也能用,當(dāng)然也支持我們用 Ollama 在本地部署的 Deepseek?!?/p>

Chatbox 有自己的付費 AI 服務(wù),除此之外使用其他所有功能都是免費的。我們已經(jīng)在本地部署大模型了,就不需要去買它的 AI 服務(wù)了哈。

操作步驟: 1. 下載安裝 Chatbox:訪問 Chatbox 官網(wǎng)(https://chatboxai.app/zh),根據(jù)自己的系統(tǒng)選擇對應(yīng)的安裝包進(jìn)行下載安裝?!?/p>

2. 配置 Chatbox:安裝完成后打開 Chatbox 界面,點擊左下角的設(shè)置。選擇 API 類型為“Ollama”,在接口地址處填寫 http://localhost:11434 ,模型名稱要和部署的模型版本嚴(yán)格一致,比如 deepseek-r1:7b ?!?/p>

3. 設(shè)置防火墻:確保防火墻放行端口 11434,以保證連接正常。

 4. 與模型交互:完成上述配置后,即可在 Chatbox 界面中與 Deepseek 模型進(jìn)行交互,輸入問題或指令,模型會在界面中給出回答。

OK,看到這里,相信你已經(jīng)掌握了將 Deepseek 部署到本地的完整流程。說實話,當(dāng)我第一次成功部署時,那個興奮勁兒真是難以形容 - 終于可以不用擔(dān)心隱私問題,盡情讓 AI 幫我干活了! 

特此聲明:

“部署 Deepseek 到本地電腦”部分的圖片和教程均來自公眾號“AI生產(chǎn)力廖老師”,非常感謝廖老師的分享!

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
輕松部署 DeepSeek R1:基于 Ollama、Chatbox 平臺的操作指南-CSDN博客
AI寫作|手把手實測:零代碼部署Deepseek本地版!5分鐘解鎖7B模型寫作能力!附Deepseek本地部署全指南!
公司數(shù)據(jù)不泄露,DeepSeek R1本地化部署 web端訪問 個人知識庫搭建與使用,喂飯級實操教程,老舊筆記本竟跑出企業(yè)級AI
DeepSeek部署在本地電腦,只需這三步
DeepSeek-R1本地部署,再也不怕宕機(jī),還有語音功能!
DeepSeek服務(wù)用不了?4個步驟,輕松在本地部署DeepSeek-R1大模型(保姆級教程)
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服