国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
更上層樓!僅用2GB資源,讓最火的DeepSeek-R1在本機(jī)上奔跑!

一夜之間,中國(guó)AI大模型DeepSeek-R1橫掃硅谷,迅速引爆全球科技圈,英偉達(dá)AI科學(xué)家Jim Fan發(fā)文感嘆:“一家非美國(guó)公司,正在讓OpenAI的初衷得以延續(xù)——真正開放、為所有人賦能的前沿研究”。是的,DeepSeek-R1不僅性能媲美OpenAI O1,更做到了完全開源。




DeepSeek-R1模型的發(fā)布,讓我們可以更好地使用開源大語(yǔ)言模型運(yùn)行推理任務(wù)。現(xiàn)在,R1模型可以通過(guò)DeepSeek API獲得,也就是說(shuō)我們可以將其集成到我們的工作流程中。更好的消息是,Ollama在他們的庫(kù)中添加了幾個(gè)版本的R1模型,現(xiàn)在我們可以在本地使用Ollama運(yùn)行R1模型。 

現(xiàn)在你將可以做到一個(gè)命令建立你的本地知識(shí)庫(kù)??全程3分鐘??僅需2GB內(nèi)存??無(wú)需GPU運(yùn)行??安裝即用??快速使用??
下面我們將使用「具有RAG功能的完整端到端文檔管道」的AI搜索引擎開發(fā)框架LeetTools,在本地運(yùn)行Ollama的R1模型。由于我們使用DuckDB作為后端,整個(gè)流程可以輕松地安裝在一臺(tái)具有16GB RAM且沒有專用GPU的筆記本電腦中。
演示
?? 安裝 Ollama

1. 按照以下說(shuō)明操作 https://github.com/ollama/ollama 安裝ollama程序。

# if the ollama program is not running, start it with the following commandollama serve

2. 加載ollama 模型:
% ollama pull deepseek-r1:1.5b% ollama pull nomic-embed-text

?? 安裝 LeetTools

% conda create -y -n leettools python=3.11% conda activate leettools% pip install leettools
# where we store all the data and logs% export LEET_HOME=${HOME}/leettools% mkdir -p ${LEET_HOME}
% cat > .env.ollama <<EOF# need tot change LEET_HOME to the correct pathLEET_HOME=</Users/myhome/leettools>EDS_DEFAULT_LLM_BASE_URL=http://localhost:11434/v1EDS_LLM_API_KEY=dummy-keyEDS_DEFAULT_INFERENCE_MODEL=deepseek-r1:1.5bEDS_DEFAULT_EMBEDDING_MODEL=nomic-embed-textEDS_EMBEDDING_MODEL_DIMENSION=768EOF

?? 用一個(gè)命令建立你的本地知識(shí)庫(kù)

通過(guò)一個(gè)命令行,我們可以使用URL中的PDF文件構(gòu)建知識(shí)庫(kù)。如果需要,你還可以添加更多URL。

# this is a great LLM introduction book with 231 pagesleet kb add-url -e .env.ollama -k llmbook -l info \ -r https://arxiv.org/pdf/2501.09223


?? 使用R1查詢你的本地知識(shí)庫(kù)

以下命令將使用LLM構(gòu)建指南中的內(nèi)容,使用R1模型回答問(wèn)題。

leet flow -t answer -e .env.ollama -k llmbook -p retriever_type=local -l info \ -p output_language=cn -q 'How does the FineTune process Work?'

?? 資源使用情況

這個(gè)過(guò)程最強(qiáng)的地方就是,整個(gè)管道只使用了大約2GB的內(nèi)存,不需要特殊的GPU來(lái)運(yùn)行:
  1. 帶有RAG服務(wù)后端的LeetTools文檔管道使用了大約350MB的內(nèi)存
  2. R1型號(hào)使用大約1.6GB的內(nèi)存,嵌入式型號(hào)使用大約370MB的內(nèi)存
% ollama ps NAME ID SIZE PROCESSOR UNTIL deepseek-r1:1.5b a42b25d8c10a 1.6 GB 100% CPU 4 minutes from now nomic-embed-text:latest 0a109f422b47 370 MB 100% CPU 4 minutes from now

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
小嬌說(shuō)故事:DeepSeek V3搭個(gè)人AI知識(shí)庫(kù),太香了。個(gè)人AI知識(shí)庫(kù)方案有很多種。今天介紹用AnythingLLM(開免費(fèi)工具)作為知識(shí)庫(kù)管理,LLM模型選性價(jià)比之王:DeepSeek
Dify:完善生態(tài)、支持Ollama與本地知識(shí)庫(kù)、拖放式UI 構(gòu)建Agent!
AnythingLLM:零成本的私人ChatGPT,支持幾乎所有主流大模型
搭建本地大模型和知識(shí)庫(kù),最簡(jiǎn)單的方法
【大模型】Ollama+open-webuiAnything LLM部署本地大模型構(gòu)建RAG個(gè)人知識(shí)庫(kù)教程(Mac)
ThinkRAG開源!筆記本電腦可運(yùn)行的本地知識(shí)庫(kù)大模型檢索增強(qiáng)生成系統(tǒng)
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服