目錄
一、Ollama是什么?
二、如何在Mac上安裝Ollama
1. 準(zhǔn)備工作
2. 下載并安裝Ollama
3. 運行Ollama
4. 安裝和配置大型語言模型
5. 使用Ollama
三、安裝open-webui
1. 準(zhǔn)備工作
2. Open WebUI ?的主要特點
3. Docker安裝OpenWebUI,拉去太慢可以使用手動安裝
4. 配置本地大模型LLaMA2-7B
5. 驗證配置
四、使用Ollama + AnythingLLM構(gòu)建類ChatGPT本地問答機(jī)器人系
學(xué)習(xí)目標(biāo)
1. 下載AnythingLLM
2. 安裝AnythingLLM
3. 配置AnythingLLM
3.1 選擇LLM、嵌入模型和向量數(shù)據(jù)庫
3.2 設(shè)置環(huán)境變量(如果需要)
3.3 權(quán)限管理(如果需要)
4. 構(gòu)建知識庫
5. 開始使用
6. 自定義集成(如果需要)
7. 監(jiān)控和反饋
8. 注意事項
9. 額外信息
參考文章
Ollama是一個功能強(qiáng)大的開源框架,旨在簡化在Docker容器中部署和管理大型語言模型(LLM)的過程。以下是關(guān)于Ollama的詳細(xì)介紹:
綜上所述,Ollama是一個為在本地運行大型語言模型而設(shè)計的強(qiáng)大、易用、功能齊全的開源框架。它通過優(yōu)化設(shè)置和配置,簡化了在Docker容器中部署和管理LLM的過程,使得用戶能夠快速、方便地在本地運行大型語言模型。
在Mac上安裝Ollama的步驟如下,結(jié)合了參考文章中的信息,并進(jìn)行了適當(dāng)?shù)目偨Y(jié)和歸納:
ollama pull llama3
命令來拉取并安裝Llama 3模型(請注意,這只是一個示例命令,具體命令可能因Ollama的版本和您的需求而有所不同)。ollama pull llama3
命令來安裝Llama 3模型。啟動服務(wù):在成功安裝和配置模型后,您可以使用Ollama提供的命令或API來啟動和運行模型服務(wù)。
訪問和使用:通過Ollama提供的Web界面或API接口,您可以訪問和使用已部署的大型語言模型進(jìn)行各種任務(wù),如文本生成、問答等。
API調(diào)用
curl http://localhost:11434/api/generate -d '{
“model”: “l(fā)lama2:7B”,
“prompt”:“Why is the sky blue”
}’
回答問題時CPU100%,MAC M1 8G內(nèi)存
請注意,以上步驟和命令可能因Ollama的版本和您的具體需求而有所不同。建議您參考Ollama的官方文檔和社區(qū)資源,以獲取最準(zhǔn)確和最新的安裝和使用指南。
GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)
??輕松設(shè)置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)無縫安裝,提供無憂體驗,同時支持標(biāo)記映像和標(biāo)記映像。:ollama``:cuda
??Ollama/OpenAI API 集成:輕松集成兼容 OpenAI 的 API,與 Ollama 模型進(jìn)行多功能對話。自定義 OpenAI API URL 以鏈接LMStudio、GroqCloud、Mistral、OpenRouter 等。
??Pipelines、Open WebUI 插件支持:使用Pipelines 插件框架將自定義邏輯和 Python 庫無縫集成到 Open WebUI 中。啟動您的 Pipelines 實例,將 OpenAI URL 設(shè)置為 Pipelines URL,探索無限可能。示例包括函數(shù)調(diào)用、控制訪問的用戶速率限制、使用 Langfuse 等工具進(jìn)行使用情況監(jiān)控、使用LibreTranslate提供多語言支持的實時翻譯、有害消息過濾等等。
??響應(yīng)式設(shè)計:在臺式電腦、筆記本電腦和移動設(shè)備上享受無縫體驗。
??**適用于移動設(shè)備的漸進(jìn)式 Web 應(yīng)用程序 (PWA):**使用我們的 PWA 在您的移動設(shè)備上享受類似本機(jī)應(yīng)用程序的體驗,提供對 localhost 的離線訪問和無縫的用戶界面。
??完整的 Markdown 和 LaTeX 支持:通過全面的 Markdown 和 LaTeX 功能提升您的 LLM 體驗,以實現(xiàn)豐富的交互。
??模型生成器:通過 Web UI 輕松創(chuàng)建 Ollama 模型。通過Open WebUI 社區(qū)集成,輕松創(chuàng)建和添加自定義角色/代理、自定義聊天元素和導(dǎo)入模型。
??本地 RAG 集成:通過突破性的檢索增強(qiáng)生成 (RAG) 支持,深入了解聊天交互的未來。此功能將文檔交互無縫集成到您的聊天體驗中。您可以將文檔直接加載到聊天中或?qū)⑽募砑拥轿臋n庫中,在查詢之前使用命令輕松訪問它們。#
??RAG 的 Web 搜索:使用 、 、 、 和 等提供程序執(zhí)行 Web 搜索,并將結(jié)果直接注入到聊天體驗中。SearXNG``Google PSE``Brave Search``serpstack``serper
??Web 瀏覽功能:使用后跟 URL 的命令將網(wǎng)站無縫集成到您的聊天體驗中。此功能允許您將 Web 內(nèi)容直接合并到您的對話中,從而增強(qiáng)交互的豐富性和深度。#
??圖像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)和 OpenAI 的 DALL-E(外部)等選項無縫整合圖像生成功能,通過動態(tài)視覺內(nèi)容豐富您的聊天體驗。
許多模型對話:毫不費力地同時與各種模型互動,利用它們的獨特優(yōu)勢來獲得最佳響應(yīng)。通過并行利用各種模型來增強(qiáng)您的體驗。
??**基于角色的訪問控制 (RBAC):**確保使用受限權(quán)限進(jìn)行安全訪問;只有經(jīng)過授權(quán)的個人才能訪問您的 Ollama,并且為管理員保留獨家模型創(chuàng)建/拉取權(quán)限。
???多語言支持:通過我們的國際化 (i18n) 支持,以您的首選語言體驗 Open WebUI。加入我們,擴(kuò)展我們支持的語言!我們正在積極尋找貢獻(xiàn)者!
??持續(xù)更新:我們致力于通過定期更新、修復(fù)和新功能來改進(jìn) Open WebUI。
想了解更多關(guān)于Open WebUI的功能嗎?查看我們的Open WebUI 文檔,了解全面概述!
拉取Open-WebUI鏡像:使用Docker命令從GitHub Container Registry拉取Open-WebUI的鏡像。例如,你可以運行以下命令來拉取最新的Open-WebUI鏡像:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
下載太慢,需要配置docker國內(nèi)鏡像倉庫,參考這篇文章:
MacOS上配置docker國內(nèi)鏡像倉庫地址_mac docker配置鏡像源-CSDN博客
如果163也很慢,建議配置阿里云鏡像地址,需要登陸阿里云不過配置發(fā)現(xiàn)更慢!手動下載了
最后只能用魔法解決了
登陸地址http://localhost:3000/ 注冊賬號登陸
當(dāng)在MAC上安裝AnythingLLM時,以下是更詳細(xì)的步驟,結(jié)合了參考文章中的信息:
OLLAMA_MODELS
。配置完成后,就可以在AnythingLLM中進(jìn)行基于檢索增強(qiáng)生成(RAG)的聊天或問答了。
可以創(chuàng)建自己的工作區(qū)(workspace),設(shè)置不同的配置,并開始與LLM進(jìn)行交互。
ollama+open-webui,本地部署自己的大模型_ollama的webui如何部署-CSDN博客
Macbook m1安裝docker詳細(xì)教程_mac m1安裝docker-CSDN博客
MacOS上配置docker國內(nèi)鏡像倉庫地址_mac docker配置鏡像源-CSDN博客
第九期: 使用Ollama + AnythingLLM構(gòu)建類ChatGPT本地問答機(jī)器人系統(tǒng) - 知乎 (zhihu.com)