国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
【Llama3:8b】手把手教你如何在本地部署 自己的 AI 大模型

一、為什么需要本地部署屬于自己的大模型?

  1. 趨勢(shì):我們正處于AI人工智能時(shí)代,各行各業(yè)的公司和產(chǎn)品都在向AI靠攏。打造垂直領(lǐng)域的AI模型將成為每個(gè)公司未來(lái)的發(fā)展趨勢(shì)。
  2. 數(shù)據(jù)安全:在無(wú)法掌握核心算法的情況下,許多公司選擇使用大公司的成熟方案。然而,這涉及到數(shù)據(jù)安全的問(wèn)題。訓(xùn)練垂直定制化的大模型需要大量數(shù)據(jù),而數(shù)據(jù)是公司的核心資產(chǎn)和基石。沒(méi)有公司愿意將這些關(guān)鍵數(shù)據(jù)上傳到外部服務(wù)器,這是公司的命脈所在。
  3. 本地部署的重要性:因此,本地部署和訓(xùn)練自有或定制化的大模型顯得尤為重要。這不僅是未來(lái)的發(fā)展趨勢(shì),也是程序員必須掌握的關(guān)鍵流程和解決方案。

二、如何擁有屬于自己的本地大模型呢?

經(jīng)過(guò)博主深入評(píng)估和多次測(cè)試,為您推薦以下解決方案:

  • 使用 Llama3:8b 作為模型
  • 通過(guò) Ollama 部署
  • 利用 Llama.cpp 進(jìn)行量化優(yōu)化
  • 采用 Unsloth 進(jìn)行模型訓(xùn)練和微調(diào)

三、為什么要選擇這個(gè)方案?

1、Llama3:8b
  • 低算力需求和成本:Llama3:8b 對(duì)計(jì)算資源的需求較小,運(yùn)營(yíng)成本低。
  • 卓越的上下文記憶能力:模型能夠有效記住上下文,滿足業(yè)務(wù)需求。
  • 靈活的微調(diào)能力:適應(yīng)不同的業(yè)務(wù)場(chǎng)景和需求。
  • 開(kāi)源:社區(qū)支持強(qiáng)大,開(kāi)發(fā)者資源豐富。
2、Ollama
  • 活躍的生態(tài)和開(kāi)發(fā)者社區(qū):提供豐富的資源和支持。
  • 高效的部署和運(yùn)行:確保模型的穩(wěn)定性和性能。
  • 靈活的 API 接口:滿足業(yè)務(wù)對(duì)訓(xùn)練模型的多樣化需求。
  • 開(kāi)源且易于使用:降低了上手難度,適合快速開(kāi)發(fā)和迭代。
3、Llama.cpp
  • 廣泛支持 Llama3:8b 的量化工具:目前市面上對(duì) Llama3:8b 支持最好的量化工具之一。
  • 豐富的教程資源:學(xué)習(xí)和使用成本低。
  • 開(kāi)源:開(kāi)發(fā)者可以自由使用和修改,社區(qū)貢獻(xiàn)積極。
4、Unsloth
  • 多樣化的數(shù)據(jù)集支持:能夠處理不同類(lèi)型的數(shù)據(jù),適應(yīng)性強(qiáng)。
  • 優(yōu)異的性能:訓(xùn)練效果顯著,能夠提高模型的精度。
  • 本地訓(xùn)練支持:對(duì)數(shù)據(jù)隱私有更好的保護(hù)。
  • 開(kāi)源:開(kāi)發(fā)者可以自由訪問(wèn)和修改,提升了靈活性和可控性。

四、話不多說(shuō),讓我們開(kāi)始吧!

1、安裝 Ubuntu 【NVIDIA GPU驅(qū)動(dòng)安裝】

為什么需要使用 GPU 去跑我們的大模型呢?

  • 訓(xùn)練時(shí)間:使用GPU可以顯著縮短模型的訓(xùn)練時(shí)間。例如,一個(gè)復(fù)雜的深度學(xué)習(xí)模型在GPU上可能只需要幾小時(shí),而在CPU上可能需要幾天甚至幾周。
  • 模型推理:在推理階段,尤其是需要處理大量實(shí)時(shí)數(shù)據(jù)時(shí),GPU的高并行處理能力可以提供更快的響應(yīng)時(shí)間和更高的吞吐量。

雖然CPU也可以用于運(yùn)行大模型,但在處理深度學(xué)習(xí)任務(wù)時(shí),GPU的并行計(jì)算能力、計(jì)算性能和專(zhuān)用硬件支持使其更為適合。GPU能夠顯著提升大模型的訓(xùn)練和推理效率,降低時(shí)間和功耗成本。

一、官方方案

參考文檔:

CUDA Toolkit 12.4 Update 1 Downloads | NVIDIA Developer

二、方案二(經(jīng)實(shí)踐,簡(jiǎn)單 好用)

1、安裝 CUDA:

官網(wǎng)腳本: developer.nvidia.com/cuda-toolki…

shell
復(fù)制代碼
# 腳本文件命令(根據(jù)上述網(wǎng)站)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-1-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt search cuda-toolkit
sudo apt-get -y install cuda

2、安裝驅(qū)動(dòng): shell

csharp
復(fù)制代碼
# 系統(tǒng)會(huì)推薦安裝驅(qū)動(dòng)的版本區(qū)間
sudo ubuntu-drivers devices
?
# 安裝合適版本驅(qū)動(dòng)
sudo apt-get install -y cuda-drivers-550
?
# 驗(yàn)證
nvidia-smi
watch -n 5 nvidia-smi

2、首先我們需要安裝 Ollama

參考官方文檔: GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

方案 一:快速安裝,只能安裝最新版本,經(jīng)檢測(cè) 最新版有Bug。

arduino
復(fù)制代碼
curl -fsSL https://ollama.com/install.sh | sh

方案二:手動(dòng)安裝,自由靈活。

1、二進(jìn)制文件下載。

ruby
復(fù)制代碼
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama

歷史版本下載:

Releases · ollama/ollama (github.com)

2、給文件添加執(zhí)行權(quán)限

bash
復(fù)制代碼
sudo chmod +x /usr/bin/ollama

3、創(chuàng)建 ollama 用戶

bash
復(fù)制代碼
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

4、創(chuàng)建配置文件

bash
復(fù)制代碼
vi /etc/systemd/system/ollama.service

配置文件參考

ini
復(fù)制代碼
[Unit]
Description=Ollama Service
After=network-online.target
?
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
?
# 監(jiān)聽(tīng)端口
Environment="OLLAMA_HOST=0.0.0.0:11434"
# 模型下載位置 (需要給 ollama用戶文件夾權(quán)限: sudo chown ollama:ollama ollama/)
Environment="OLLAMA_MODELS=/home/ek-p/ollama"
# 單模型并發(fā)數(shù)量
Environment="OLLAMA_NUM_PARALLEL=100"
# Gpu選擇 (如有GPU,需要在硬件安裝GPU去驅(qū)動(dòng),安裝文檔參考下文。)
Environment="CUDA_VISIBLE_DEVICES=0,1"
# 多模型并發(fā)數(shù)量
Environment="OLLAMA_MAX_LOADED_MODELS=3"
?
[Install]
WantedBy=default.target

5、啟動(dòng) Ollama

bash
復(fù)制代碼
sudo systemctl daemon-reload
sudo systemctl enable ollama

6、查看日志

復(fù)制代碼
journalctl -u ollama -r

7、問(wèn)題:文件夾權(quán)限不夠

ini
復(fù)制代碼
May 16 16:24:25 ek-s systemd[1]: ollama.service: Failed with result 'exit-code'.
May 16 16:24:25 ek-s systemd[1]: ollama.service: Main process exited, code=exited, status=1/FAILURE
May 16 16:24:25 ek-s ollama[10780]: Error: mkdir /home/ekw-p: permission denied
bash
復(fù)制代碼
sudo chown ollama:ollama ollama/ 

8、運(yùn)行成功

繼續(xù)查看日志

ini
復(fù)制代碼
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.384+08:00 level=INFO source=cpu_common.go:11 msg="CPU has AVX2"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.383+08:00 level=INFO source=gpu.go:127 msg="detected GPUs" count=1 library=/usr/lib/x86_64-li>
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=gpu.go:122 msg="Detecting GPUs"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cpu cpu_avx cpu_avx2 cu>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.222+08:00 level=INFO source=payload.go:30 msg="extracting embedded files" dir=/tmp/ollama1963>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.221+08:00 level=INFO source=routes.go:1034 msg="Listening on [::]:11434 (version 0.1.34)"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:904 msg="total unused blobs removed: 0"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:897 msg="total blobs: 0"
3、 接著我們需要使用 Ollama 運(yùn)行我們的 大模型 Llama3:8b

1、使用 ollama 查看模型列表

復(fù)制代碼
ollama list

2、下載大模型

ollama Model 庫(kù):library (ollama.com)

經(jīng)檢測(cè)目前比較適用的大模型為:llama3:8b

復(fù)制代碼
ollama pull llama3:8b

3、運(yùn)行大模型

arduino
復(fù)制代碼
ollama run llama3:8b

4、測(cè)試我們的大模型

成功。

如何系統(tǒng)的去學(xué)習(xí)大模型LLM ?

作為一名熱心腸的互聯(lián)網(wǎng)老兵,我意識(shí)到有很多經(jīng)驗(yàn)和知識(shí)值得分享給大家,也可以通過(guò)我們的能力和經(jīng)驗(yàn)解答大家在人工智能學(xué)習(xí)中的很多困惑,所以在工作繁忙的情況下還是堅(jiān)持各種整理和分享。

但苦于知識(shí)傳播途徑有限,很多互聯(lián)網(wǎng)行業(yè)朋友無(wú)法獲得正確的資料得到學(xué)習(xí)提升,故此將并將重要的 AI大模型資料 包括AI大模型入門(mén)學(xué)習(xí)思維導(dǎo)圖、精品AI大模型學(xué)習(xí)書(shū)籍手冊(cè)、視頻教程、實(shí)戰(zhàn)學(xué)習(xí)等錄播視頻免費(fèi)分享出來(lái)。

??有需要的小伙伴,可以V掃描下方二維碼免費(fèi)領(lǐng)取??

一、全套AGI大模型學(xué)習(xí)路線

AI大模型時(shí)代的學(xué)習(xí)之旅:從基礎(chǔ)到前沿,掌握人工智能的核心技能!

二、640套AI大模型報(bào)告合集

這套包含640份報(bào)告的合集,涵蓋了AI大模型的理論研究、技術(shù)實(shí)現(xiàn)、行業(yè)應(yīng)用等多個(gè)方面。無(wú)論您是科研人員、工程師,還是對(duì)AI大模型感興趣的愛(ài)好者,這套報(bào)告合集都將為您提供寶貴的信息和啟示。

三、AI大模型經(jīng)典PDF籍

隨著人工智能技術(shù)的飛速發(fā)展,AI大模型已經(jīng)成為了當(dāng)今科技領(lǐng)域的一大熱點(diǎn)。這些大型預(yù)訓(xùn)練模型,如GPT-3、BERT、XLNet等,以其強(qiáng)大的語(yǔ)言理解和生成能力,正在改變我們對(duì)人工智能的認(rèn)識(shí)。 那以下這些PDF籍就是非常不錯(cuò)的學(xué)習(xí)資源。

四、AI大模型商業(yè)化落地方案

階段1:AI大模型時(shí)代的基礎(chǔ)理解

  • 目標(biāo):了解AI大模型的基本概念、發(fā)展歷程和核心原理。
  • 內(nèi)容
    • L1.1 人工智能簡(jiǎn)述與大模型起源
    • L1.2 大模型與通用人工智能
    • L1.3 GPT模型的發(fā)展歷程
    • L1.4 模型工程
      - L1.4.1 知識(shí)大模型
      - L1.4.2 生產(chǎn)大模型
      - L1.4.3 模型工程方法論
      - L1.4.4 模型工程實(shí)踐
    • L1.5 GPT應(yīng)用案例

階段2:AI大模型API應(yīng)用開(kāi)發(fā)工程

  • 目標(biāo):掌握AI大模型API的使用和開(kāi)發(fā),以及相關(guān)的編程技能。
  • 內(nèi)容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具類(lèi)框架
      - L2.1.4 代碼示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架應(yīng)用現(xiàn)狀
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架與Thought
      - L2.2.5 Prompt框架與提示詞
    • L2.3 流水線工程
      - L2.3.1 流水線工程的概念
      - L2.3.2 流水線工程的優(yōu)點(diǎn)
      - L2.3.3 流水線工程的應(yīng)用
    • L2.4 總結(jié)與展望

階段3:AI大模型應(yīng)用架構(gòu)實(shí)踐

  • 目標(biāo):深入理解AI大模型的應(yīng)用架構(gòu),并能夠進(jìn)行私有化部署。
  • 內(nèi)容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的設(shè)計(jì)理念
      - L3.1.2 Agent模型框架的核心組件
      - L3.1.3 Agent模型框架的實(shí)現(xiàn)細(xì)節(jié)
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的應(yīng)用場(chǎng)景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特點(diǎn)
      - L3.3.2 ChatGLM的開(kāi)發(fā)環(huán)境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特點(diǎn)
      - L3.4.2 LLAMA的開(kāi)發(fā)環(huán)境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介紹

階段4:AI大模型私有化部署

  • 目標(biāo):掌握多種AI大模型的私有化部署,包括多模態(tài)和特定領(lǐng)域模型。
  • 內(nèi)容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的關(guān)鍵技術(shù)
    • L4.3 模型私有化部署的實(shí)施步驟
    • L4.4 模型私有化部署的應(yīng)用場(chǎng)景

學(xué)習(xí)計(jì)劃:

  • 階段1:1-2個(gè)月,建立AI大模型的基礎(chǔ)知識(shí)體系。
  • 階段2:2-3個(gè)月,專(zhuān)注于API應(yīng)用開(kāi)發(fā)能力的提升。
  • 階段3:3-4個(gè)月,深入實(shí)踐AI大模型的應(yīng)用架構(gòu)和私有化部署。
  • 階段4:4-5個(gè)月,專(zhuān)注于高級(jí)模型的應(yīng)用和部署。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
淘汰你的不是AI,而是會(huì)用AI的同事!
?無(wú)顯卡+純本地跑Qwen1.5版模型!0基礎(chǔ)閉眼部署指南!適用絕大部分開(kāi)源模型!llama2+Mistral+Zephyr通殺!
非??煽浚职咽纸棠惚镜夭渴餉I大模型-llama3:70b
本地部署Llama3教程,斷網(wǎng)也能用啦!
用ollama的免費(fèi)API零代碼開(kāi)發(fā)第一個(gè)AI應(yīng)用
最強(qiáng)開(kāi)源編程大模型一夜易主:精通80 語(yǔ)言,僅22B
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服