国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
?無顯卡+純本地跑Qwen1.5版模型!0基礎(chǔ)閉眼部署指南!適用絕大部分開源模型!llama2+Mistral+Zephyr通殺!

原創(chuàng) 一意AI 一意AI增效家 2024-02-09 02:17 廣東

hi~

新年快樂呀~

朋友,祝你越來越好!

應(yīng)該都到家了吧?

馬上又到了年輕們最煎熬的時候了,“啥時候結(jié)婚?”、“年薪多少???”、“二胎快了吧?”、“我兒子都當(dāng)上公司高管了”!

真真的!不如在家學(xué)習(xí),干項目!

雄哥目標(biāo)就是在新年幾天,把知識圖譜和高級RAG應(yīng)用干完!

干完了,我們繼續(xù)干agent!干教育組項目!

接下來我們會用到純本地的環(huán)境,做知識圖譜+RAG應(yīng)用!

我需要部署一個本地開源模型,完成任務(wù)!

但雄哥帶回家的筆記本電腦,沒有顯卡!

怎么辦?

剛好qwen發(fā)布了1.5 版本!而且一下更新了:0.5B, 1.8B, 4B, 7B, 14B,  72B

6個尺寸版本!

最小的尺寸僅0.5B!

就是不知能力如何!

我們先看看他常規(guī)尺寸的數(shù)據(jù),這么看,各項數(shù)據(jù),不管放在國內(nèi)外,在開源陣營中,都是非常能打的!

但雄哥本地沒有顯卡,只能用CPU來跑,而且日后接API出來做知識圖譜和RAG,小尺寸模型才是我的菜!

來看看小尺寸的表現(xiàn)!

嗯!就它了!

雄哥本地沒有任何顯卡,只有CPU!到時跑知識圖譜,那個溫度+音浪~

已經(jīng)有畫面了!

人的專注力只有10分鐘,那,話不多說!

① 部署ollama推理環(huán)境!

② 下載qwen1.5版本模型!(全)

③ 啟動推理!跑起來!

價值內(nèi)容,僅對知識星球會員開放,被長輩催婚,不如關(guān)門學(xué)習(xí),快加入星球,一起打卡學(xué)習(xí)吧!

我們已經(jīng)做了大模型微調(diào)、知識庫+RAG、數(shù)據(jù)預(yù)處理、langchain+llama_index的內(nèi)容!點擊下方小程序申請加入!

知識星球

點擊申請加入知識星球

小程序

第一部分:部署ollama推理環(huán)境

ollama!是一個操作簡單的大模型部署工具!可以無縫接入到各大應(yīng)用中!

當(dāng)然!支持langchain+llama_index!來看看它的優(yōu)勢!

運行環(huán)境:純本地

支持系統(tǒng):Mac、linux、win系統(tǒng)的WSL2

算力要求:零!雄哥16G內(nèi)存,0顯存,照樣跑!

部署方式:一條指令搞掂,無需安裝依賴!

docker:完美使用!

GitHub地址:https://github.com/ollama/ollama

接下來,雄哥用win11系統(tǒng)的WSL和docker兩種方式來部署它!

如果你是小白,沒關(guān)系,你可以把ollama理解為一個手機系統(tǒng),大模型就是一個APP!

只有安裝了系統(tǒng),我們才能啟動一個APP,一樣道理!

好!動起手來,跟著雄哥把系統(tǒng)部署下來!

1.1 安裝wsl+docker

是的,雄哥是0基礎(chǔ)教,那一定是從這個開始的!wsl和docker幾乎是捆綁在一起的!

首先,我們要先安裝wsl!這是win系統(tǒng)的linux虛擬機,完全獨立于win系統(tǒng)!這樣無需安裝雙系統(tǒng)了!

安裝!對你日后的AI環(huán)境使用,都有好處,雄哥的使用率極高!

安裝wsl有自動和手動兩種,雄哥用自動擋,沒成功~

沒關(guān)系,手動安裝也是一眨眼的事!

現(xiàn)在在開始菜單按鈕右鍵,管理員身份運行終端!

輸入以下指令,回車!啟動wsl功能

dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart

繼續(xù)!輸入以下指令,回車!啟動虛擬機功能!

dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

打開電腦的“應(yīng)用商店”,搜索并安裝wsl!

回到剛剛的窗口,看看安裝成功沒!輸入以下指令!回車!

wsl --list --verbose

注意看!星標(biāo)在不在新安裝的這個版本上!

如果不在,輸入以下指令,將新安裝的wsl設(shè)置為默認版本!

否則是無法啟動的!

wsl --set-default-version Ubuntu-22.04

現(xiàn)在,該安裝docker了!

在知識星球會員盤下載docker后!直接下一步安裝!

安裝成功后,注意要點設(shè)置!打鉤!

全部搞掂!

1.2 安裝ollama!

打開剛剛那個WSL小企鵝!這是linux和wsl的安裝指令!

一條搞掂,輸入后回車!

curl https://ollama.ai/install.sh | sh

整個下載幾分鐘搞掂!因為雄哥本地的筆記本,沒有顯卡,只有CPU,所以它提示我,會用CPU來運行模型!

沒關(guān)系!

下載完了,這個系統(tǒng)就搞掂了!

之后運行模型只需要一條指令!

是不是很簡單?

甚至不用安裝依賴!

上面已經(jīng)安裝好了!不需要再做任何操作了!

當(dāng)然,你也可以用docker安裝,如果你還想拓展更多花活,你就可以玩docker了,也是一條指令搞掂!

兩個系統(tǒng)是獨立的,一個在docker,一個在wsl中!

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

第二部分:下載模型!(全)

雄哥實在太愛這個工具了,下載模型只需要一條指令!無需魔法!

首先!雄哥要下載qwen1.5版本的模型,ollama專門做了一個模型商店!

上面有絕大部分的開源模型!以下是qwen1.5版本倉庫的商店鏈接!

https://ollama.ai/library/qwen/tags

直接在wsl窗口輸入以下指令,回車!

ollama run qwen:0.5b

這是支持的所有開源模型的商店鏈接!

客觀您慢慢挑~

https://ollama.ai/library

注意!在docker中的操作是完全不同的!

使用以下命令。

僅 CPU

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

有英偉達GPU的

安裝 Nvidia 容器工具包。

在 Docker 容器中運行 Ollama

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

運行模型

現(xiàn)在,您可以在容器內(nèi)運行類似 qwen1.5_0.5b 的模型。

docker exec -it ollama ollama run qwen:0.5b

第三部分:啟動推理!跑起來!

跑起來!

一條指令!

ollama run qwen:0.5b-chat

沒錯!還是它!

如果你下載完,會自動進入chat,退出后,也可以用它來啟動!

你有什么問題在,直接在窗口就可以跟它對話,CPU,也非???!

簡單問了兩個問題!

問1:樹上有10只鳥,開 槍打死一只,樹上還有幾只鳥?

答1:當(dāng)開槍打死一只之后,樹上可能會剩下9只鳥。但請注意,這只是一個假設(shè)的計算,并沒有考慮到所有可能的情況。

問2:你是誰

答2:我是來自阿里云的大規(guī)模語言模型——通義千問。我不僅能夠理解和生成高質(zhì)量的文字,而且還能進行深度對話和知識查詢,為用戶提供更便捷的服務(wù)。

整個回答,還算簡潔,沒什么多余的話,這只是0.5B的!跑完了這個,我感覺我的電腦可以跑4B的,16G顯存,馬上下載試試!

反正一條指令干完所有事,大家也動起手來

qwen1.5系列,全系都是32K,真的好評!

雄哥好好玩下

后續(xù)我們要用它來部署純本地的LLM,接API來做知識圖譜+RAG應(yīng)用!

在跑的時候,有任何問題,找雄哥的技術(shù)助手—小胖!或在會員群里聊!

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
沒有RTX 4090怎么辦?用Ollama來玩LLM吧!
開源,阿里云想激發(fā)中國大模型生態(tài)
“開源軍團”來勢洶洶,OpenAI還能堅挺多久? 轉(zhuǎn)載
開源才是大模型的未來?
llama2大語言模型部署方案詳解
LLM強勢挺進端側(cè),AI大語言模型端側(cè)部署如何影響超自動化?
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服