curl -fsSL https://ollama.com/install.sh | sh
1 手動下載 https://ollama.com/install.sh 這個文件
2 注釋掉下載部分 curl xxxx 手動下載ollama-linux-{ARCH}
status 'Downloading ollama...'
#curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama 'https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}'
我電腦intel/amd cpu 所以 {ARCH} = amd64
瀏覽器下載 https://ollama.com/download/ollama-linux-amd64
放在 install.sh 同目錄下
3 注釋掉 #$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
改為下面一行:
status 'Installing ollama to $BINDIR...'
$SUDO install -o0 -g0 -m755 -d $BINDIR
#$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
$SUDO install -o0 -g0 -m755 ./ollama-linux-amd64 $BINDIR/ollama
4 運行 install.sh ,安裝
./install.sh
需要sudo 權(quán)限, 安裝完畢
gedit .bashrc
然后添加一行 配置 OLLAMA_MODELS 環(huán)境變量自定義路徑
### ollama model dir 改為自己的路徑
export OLLAMA_MODELS=/path/ollama_cache
如果開始沒配置OLLAMA_MODELS ,默認路徑是
/usr/share/ollama/.ollama/models
如果修改了OLLAMA_MODELS環(huán)境變量,把之前下載的 OLLAMA_MODELS 目錄變量下的兩個目錄
blobs manifests
復(fù)制到新的OLLAMA_MODELS目錄變量下 ,即可
ollama serve
ollama run <模型名稱>
運行 千問 大模型
ollama run qwen
模型下載到剛才的OLLAMA_MODELS 環(huán)境變量下
service ollama stop
sudo gedit /etc/systemd/system/ollama.service
ollama show <模型> --modelfile
ollama show qwen --modelfile
確保網(wǎng)絡(luò)代理關(guān)閉 ubuntu 系統(tǒng),設(shè)置,網(wǎng)絡(luò)代理,選擇->關(guān)閉
參考 官方文檔 https://docs.openwebui.com/getting-started/
以下容器 運行之后,需要等一會,再訪問 http://127.0.0.1:8080/
注冊 open-webui 賬號然后用賬號登錄,效果如下:
OLLAMA_BASE_URL 指定 ollama 服務(wù)地址 ,可以是本地也可以是遠端
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
下載open-webui 源碼
https://github.com/open-webui/open-webui
編譯運行open-webui 的 Docker 鏡像
./run-compose.sh --enable-gpu --build