經(jīng)過(guò)博主深入評(píng)估和多次測(cè)試,為您推薦以下解決方案:
為什么需要使用 GPU 去跑我們的大模型呢?
雖然CPU也可以用于運(yùn)行大模型,但在處理深度學(xué)習(xí)任務(wù)時(shí),GPU的并行計(jì)算能力、計(jì)算性能和專(zhuān)用硬件支持使其更為適合。GPU能夠顯著提升大模型的訓(xùn)練和推理效率,降低時(shí)間和功耗成本。
一、官方方案
參考文檔:
CUDA Toolkit 12.4 Update 1 Downloads | NVIDIA Developer
二、方案二(經(jīng)實(shí)踐,簡(jiǎn)單 好用)
1、安裝 CUDA:
官網(wǎng)腳本: developer.nvidia.com/cuda-toolki…
shell
復(fù)制代碼
# 腳本文件命令(根據(jù)上述網(wǎng)站)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-1-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt search cuda-toolkit
sudo apt-get -y install cuda
2、安裝驅(qū)動(dòng): shell
csharp
復(fù)制代碼
# 系統(tǒng)會(huì)推薦安裝驅(qū)動(dòng)的版本區(qū)間
sudo ubuntu-drivers devices
?
# 安裝合適版本驅(qū)動(dòng)
sudo apt-get install -y cuda-drivers-550
?
# 驗(yàn)證
nvidia-smi
watch -n 5 nvidia-smi
方案 一:快速安裝,只能安裝最新版本,經(jīng)檢測(cè) 最新版有Bug。
arduino
復(fù)制代碼
curl -fsSL https://ollama.com/install.sh | sh
方案二:手動(dòng)安裝,自由靈活。
1、二進(jìn)制文件下載。
ruby
復(fù)制代碼
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
歷史版本下載:
Releases · ollama/ollama (github.com)
2、給文件添加執(zhí)行權(quán)限
bash
復(fù)制代碼
sudo chmod +x /usr/bin/ollama
3、創(chuàng)建 ollama 用戶
bash
復(fù)制代碼
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
4、創(chuàng)建配置文件
bash
復(fù)制代碼
vi /etc/systemd/system/ollama.service
配置文件參考
ini 復(fù)制代碼 [Unit] Description=Ollama Service After=network-online.target ? [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 ? # 監(jiān)聽(tīng)端口 Environment="OLLAMA_HOST=0.0.0.0:11434" # 模型下載位置 (需要給 ollama用戶文件夾權(quán)限: sudo chown ollama:ollama ollama/) Environment="OLLAMA_MODELS=/home/ek-p/ollama" # 單模型并發(fā)數(shù)量 Environment="OLLAMA_NUM_PARALLEL=100" # Gpu選擇 (如有GPU,需要在硬件安裝GPU去驅(qū)動(dòng),安裝文檔參考下文。) Environment="CUDA_VISIBLE_DEVICES=0,1" # 多模型并發(fā)數(shù)量 Environment="OLLAMA_MAX_LOADED_MODELS=3" ? [Install] WantedBy=default.target
5、啟動(dòng) Ollama
bash
復(fù)制代碼
sudo systemctl daemon-reload
sudo systemctl enable ollama
6、查看日志
復(fù)制代碼
journalctl -u ollama -r
7、問(wèn)題:文件夾權(quán)限不夠
ini
復(fù)制代碼
May 16 16:24:25 ek-s systemd[1]: ollama.service: Failed with result 'exit-code'.
May 16 16:24:25 ek-s systemd[1]: ollama.service: Main process exited, code=exited, status=1/FAILURE
May 16 16:24:25 ek-s ollama[10780]: Error: mkdir /home/ekw-p: permission denied
bash
復(fù)制代碼
sudo chown ollama:ollama ollama/
8、運(yùn)行成功
繼續(xù)查看日志
ini
復(fù)制代碼
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.384+08:00 level=INFO source=cpu_common.go:11 msg="CPU has AVX2"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.383+08:00 level=INFO source=gpu.go:127 msg="detected GPUs" count=1 library=/usr/lib/x86_64-li>
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=gpu.go:122 msg="Detecting GPUs"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cpu cpu_avx cpu_avx2 cu>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.222+08:00 level=INFO source=payload.go:30 msg="extracting embedded files" dir=/tmp/ollama1963>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.221+08:00 level=INFO source=routes.go:1034 msg="Listening on [::]:11434 (version 0.1.34)"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:904 msg="total unused blobs removed: 0"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:897 msg="total blobs: 0"
1、使用 ollama 查看模型列表
復(fù)制代碼
ollama list
2、下載大模型
ollama Model 庫(kù):library (ollama.com)
經(jīng)檢測(cè)目前比較適用的大模型為:llama3:8b
復(fù)制代碼
ollama pull llama3:8b
3、運(yùn)行大模型
arduino
復(fù)制代碼
ollama run llama3:8b
作為一名熱心腸的互聯(lián)網(wǎng)老兵,我意識(shí)到有很多經(jīng)驗(yàn)和知識(shí)值得分享給大家,也可以通過(guò)我們的能力和經(jīng)驗(yàn)解答大家在人工智能學(xué)習(xí)中的很多困惑,所以在工作繁忙的情況下還是堅(jiān)持各種整理和分享。
但苦于知識(shí)傳播途徑有限,很多互聯(lián)網(wǎng)行業(yè)朋友無(wú)法獲得正確的資料得到學(xué)習(xí)提升,故此將并將重要的 AI大模型資料
包括AI大模型入門(mén)學(xué)習(xí)思維導(dǎo)圖、精品AI大模型學(xué)習(xí)書(shū)籍手冊(cè)、視頻教程、實(shí)戰(zhàn)學(xué)習(xí)等錄播視頻免費(fèi)分享出來(lái)。
??有需要的小伙伴,可以V掃描下方二維碼免費(fèi)領(lǐng)取??
AI大模型時(shí)代的學(xué)習(xí)之旅:從基礎(chǔ)到前沿,掌握人工智能的核心技能!
這套包含640份報(bào)告的合集,涵蓋了AI大模型的理論研究、技術(shù)實(shí)現(xiàn)、行業(yè)應(yīng)用等多個(gè)方面。無(wú)論您是科研人員、工程師,還是對(duì)AI大模型感興趣的愛(ài)好者,這套報(bào)告合集都將為您提供寶貴的信息和啟示。
隨著人工智能技術(shù)的飛速發(fā)展,AI大模型已經(jīng)成為了當(dāng)今科技領(lǐng)域的一大熱點(diǎn)。這些大型預(yù)訓(xùn)練模型,如GPT-3、BERT、XLNet等,以其強(qiáng)大的語(yǔ)言理解和生成能力,正在改變我們對(duì)人工智能的認(rèn)識(shí)。 那以下這些PDF籍就是非常不錯(cuò)的學(xué)習(xí)資源。
聯(lián)系客服