最近,DeepSeek大火,想必大家都有所耳聞,各路媒體從各個方面報道了DeepSeek這家神秘的公司的各方面消息,這家低調(diào)的技術(shù)公司用一組硬核數(shù)據(jù)回應(yīng)了所有關(guān)注:
千億參數(shù)規(guī)模下實現(xiàn)0.5元/百萬tokens的API調(diào)用成本,91.5%的中文基準測試得分,推理效率較傳統(tǒng)架構(gòu)提升5倍。
DeepSeek的AI大模型作為國產(chǎn)之光,不僅刷新了國產(chǎn)大模型的天花板,更標志著普惠AI時代的實質(zhì)性突破。
我們看新聞的同時,不應(yīng)該只停留在聽說的層面上,應(yīng)該深入體驗并實踐于各種應(yīng)用場景:有人用它來幫自己寫文章,有人用它來幫自己思考做決策,甚至有人用它來suanming,真是腦洞大開,破局圈友應(yīng)該是行動最快的那群人。
本文將帶領(lǐng)大家本地部署 DeepSeek+Dify,零成本搭建自己的私有知識庫。
學(xué)會本文搭建方法后,我們也可以把自己的個人資料,過往輸出文章,日記等所有個人信息上傳到本地知識庫,打造自己的私人助理。
當(dāng)然,還可以有很多其他應(yīng)用場景,比如:智能客服,智能題庫。
本文,將按照以下主線展開:
網(wǎng)址:https://www.docker.com/
一路點擊下一步安裝即可,因為docker會用到hyper-v,如果電腦沒開啟hyper-v,可能會需要重啟一次。
Ollama 是一個開源的本地化工具,旨在簡化大型語言模型(LLMs)的本地運行和部署。它專注于讓用戶能夠輕松在個人計算機或服務(wù)器上運行多種開源語言大模型(如deepseek ,qwen,Llama、Mistral、Gemma等),而無需依賴云端服務(wù)或復(fù)雜的配置流程。
網(wǎng)址:https://ollama.com/
安裝完成后,桌面右下角會顯示ollama圖標
在ollama官網(wǎng)首頁的搜索框,點擊一下即可看到deepseek-r1在第一個位置,可見熱度之高?。?/span>
可以看到模型有根據(jù)參數(shù)分為1.5b,7b,8b,14b,32b,70b,671b等,我們需要根據(jù)自己電腦選擇下載對應(yīng)參數(shù)的模型。
我的電腦配置如下:
問一下deepseek,讓他幫我們選擇,提示詞如下:
我現(xiàn)在正在使用ollama部署deepseek-r1模型,但是模型分為1.5b,7b,8b,14b,32b,70b,671b等,我不知道該怎么選擇適合我電腦配置模型了,我現(xiàn)在把我電腦的配置信息告訴你,你幫我選擇一下吧
個人電腦信息如下:
系統(tǒng):windows 11
運行內(nèi)存:32G
專用GPU顯存:6G
共享GPU內(nèi)存:15.9G
ollama run deepseek-r1:8b
ollama安裝完后,沒有圖形界面,安裝大模型,可以類比為docker拉取鏡像,因為很多操作命令類似
安裝完成后,會自動運行大模型,我們輸入一個問題測試一下:
dify官網(wǎng)地址:
http://difyai.com/
dify官網(wǎng)文檔:
https://docs.dify.ai/zh-hans
dify項目github地址:
https://github.com/langgenius/dify
這里簡單介紹一下dify,需要詳細了解的可以看dify的官網(wǎng)或官方文檔。
Dify.AI 是一個開源的大模型應(yīng)用開發(fā)平臺,旨在幫助開發(fā)者輕松構(gòu)建和運營生成式 AI 原生應(yīng)用。該平臺提供從 Agent 構(gòu)建到 AI workflow 編排、RAG 檢索、模型管理等全方位的能力,使開發(fā)者能夠?qū)W⒂趧?chuàng)造應(yīng)用的核心價值,而無需在技術(shù)細節(jié)上耗費過多精力。
從創(chuàng)建應(yīng)用頁面可以看到,他可以創(chuàng)建:聊天助手,Agent,文生文應(yīng)用,對話工作流,任務(wù)編排工作流等
支持接入的大模型供應(yīng)商幾乎涵蓋了全球所有知名大模型供應(yīng)商
當(dāng)然也包括國內(nèi)的deepseek,ollama
他也支持從已有文本,Notion,網(wǎng)頁等數(shù)據(jù)源創(chuàng)建知識庫:
這就意味著,我們可以通過部署本地大模型,企業(yè)知識庫,來部署企業(yè)私有化AI應(yīng)用,比如:企業(yè)垂直領(lǐng)域的銷售客服,HR用來培訓(xùn)企業(yè)招聘來的新員工,教育機構(gòu)可以部署私有題庫。并通過api的形式靈活構(gòu)建自己的應(yīng)用。
docker compose up -d
此時回到docker桌面客戶端可看到,所有dify所需要的環(huán)境都已經(jīng)運行起來了
在瀏覽器地址欄輸入即可安裝:
http://127.0.0.1/install
然后登錄賬號
進入dify主頁如下:
由于本教程的dify是通過docker部署的,也就是說,項目是運行在docker容器內(nèi)部的,但是我們的ollama是運行在本地電腦的,但是他們是在同一臺電腦上的,這就意味著,要想dify能夠訪問ollama提供的服務(wù),需要獲取到本地電腦的內(nèi)網(wǎng)IP即可。
打開命令行:win+r
輸入:cmd
在命令行輸入:ipconfig,并找到當(dāng)前連接的網(wǎng)絡(luò)適配器(如“無線局域網(wǎng)適配器 WLAN”或“以太網(wǎng)適配器”),下方顯示的 IPv4 地址
即為內(nèi)網(wǎng)IP(如 192.168.x.x
或 10.x.x.x
)
找到dify項目下的docker文件夾并進入,前面已經(jīng)將.env.example
改為了.env
文件了,在末尾填上以下配置:
# 啟用自定義模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根據(jù)部署環(huán)境調(diào)整 IP)
OLLAMA_API_BASE_URL=http://192.168.1.10:11434
到此,dify就與前面部署的本地大模型關(guān)聯(lián)起來了
這表明,dify與本地部署的大模型deepseek-r1連通了,但是,我想讓他的回答是基于我的私有知識庫作為上下文來和我聊天怎么辦?這就需要用到本地知識庫了
為什么要添加Embedding模型?
Embedding模型的作用是將高維數(shù)據(jù)(如文本、圖像)轉(zhuǎn)換為低維向量,這些向量能夠捕捉原始數(shù)據(jù)中的語義信息。常見的應(yīng)用包括文本分類、相似性搜索、推薦系統(tǒng)等。
我們上傳的資料要通過Embedding模型轉(zhuǎn)換為向量數(shù)據(jù)存入向量數(shù)據(jù)庫,這樣回答問題時,才能根據(jù)自然語言,準確獲取到原始數(shù)據(jù)的含義并召回,因此我們需要提前將私有數(shù)據(jù)向量化入庫。
回到剛才的應(yīng)用聊天頁面,添加知識庫
如果只是當(dāng)前應(yīng)用內(nèi)調(diào)試可以不必更新,但是如果想把當(dāng)前應(yīng)用發(fā)布為對外api服務(wù)或者持久化保存,就需要保存當(dāng)前應(yīng)用設(shè)置,記得實時保存當(dāng)前設(shè)置。
如果感覺回答的效果還不滿意,可以對召回參數(shù)進行調(diào)整。
或者可以參考官方文檔,做其他詳細設(shè)置:
https://docs.dify.ai/zh-hans/guides/knowledge-base
DeepSeek作為可以私有化本地部署的大模型,加上Dify這個組合,我們還可以有很多其他應(yīng)用場景,比如:智能客服,智能題庫。
也可以把自己的個人資料,過往輸出文章,日記等所有個人信息上傳到本地知識庫,打造自己的私人助理。
Dify還有很多其他功能,有了deepseek這樣的優(yōu)秀國產(chǎn)AI大模型加持,我們可以做更多智能體應(yīng)用。當(dāng)然,Dify也可以像coze一樣,發(fā)布為對外服務(wù)的api,這樣,它就可以結(jié)合cursor快速做出更多的AI應(yīng)用。
何以破局,唯有行動!希望看到這里的你能夠積極行動起來,做出自己的AI應(yīng)用!
我是阿坡,專注于AI+RPA自動化提效。
如果在RPA學(xué)習(xí)過程中有任何問題,歡迎加我v:ao-ai-coding,拉你進RPA實戰(zhàn)交流群。
我和明鑒老師在平時和學(xué)員交流溝通的過程中,經(jīng)常會遇到,智能體玩的很好的小伙伴,有提效的需求;玩RPA很好的小伙伴,有內(nèi)容創(chuàng)作的需求。
所以,我們覺得是時候讓 RPA和智能體 來一個合體了!
我敢說,你要是學(xué)會了 RPA+智能體,分分鐘起飛!簡直是降維打擊!
因為看到了這個趨勢,我們研發(fā)了一個小冊子,目的是讓更多人能夠了解什么是RPA和智能體,也能讓大家實操學(xué)會怎么樣玩轉(zhuǎn)RPA和智能體!
我們這個小冊子主要提供一個文檔和一個技術(shù)交流群,群里會交流各種好玩的 RPA+智能體 的技術(shù)!低成本的學(xué)習(xí)自動化提效,享受效率人生!
內(nèi)容大綱可看下圖,干貨滿滿,內(nèi)容會持續(xù)完善更新,并在群內(nèi)進行講解答疑!