(引自https://www.modelscope.cn/models/qwen/Qwen1.5-0.5B-Chat-GGUF/summary、https://blog.csdn.net/df19900725/article/details/136051040)
Qwen1.5(通義千問1.5)是阿里云最近推出的開源大型語言模型系列,包含多個規(guī)模,從0.5B到72B,滿足不同的計算需求(本文介紹0.5b),是Qwen2的beta版,是一個基于Transformer架構的僅解碼器語言模型,預訓練于大量數(shù)據(jù)上。與之前發(fā)布的Qwen相比,改進包括:
接下來我們開始規(guī)模為0.5B的Qwen1.5模型部署
python代碼如下所示:
from modelscope.hub.file_download import model_file_download
model_dir = model_file_download(model_id='qwen/Qwen1.5-0.5B-Chat-GGUF',file_path='qwen1_5-0_5b-chat-q5_k_m.gguf',
revision='master',cache_dir='/mnt/workspace')
(別忘了將’/mnt/workspace’改為對應路徑)
在命令行中運行代碼
python <文件名>.py
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make -j
./main -m /mnt/workspace/qwen/Qwen1.5-0.5B-Chat-GGUF/qwen1_5-0_5b-chat-q5_k_m.gguf -n 512 --color -i -cml
首先去github下載所需的文件,鏈接如下:
https://github.com/OpenVINO-dev-contest/Qwen2.openvino
創(chuàng)建目錄并在該目錄下創(chuàng)建兩個.py文件和一個.txt文件
并將代碼復制進對應的文件
接著
創(chuàng)建Python虛擬環(huán)境:
python -m venv qwenVenv
source qwenVenv/bin/activate
安裝依賴的包:
pip install wheel setuptools
pip install -r requirements.txt
(在終端中一行一行執(zhí)行即可)
成功后如下圖所示:
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False Qwen/Qwen1.5-0.5B-Chat --
local-dir {your_path}/Qwen1.5-0.5B-Chat
(同樣在終端中運行)
成功后如下圖所示:
在這里需使用第1步創(chuàng)建的兩個.py文件
python3 convert.py --model_id Qwen/Qwen1.5-0.5B-Chat --precision int4 --output {your_path}/Qwen1.5-0.5B-Chat-ov
python3 chat.py --model_path {your_path}/Qwen1.5-0.5B-Chat-ov --max_sequence_length 4096 --device CPU
轉換和加載成功如下圖所示:
至此,Qwen2.0也部署完畢,可進行對話,如下圖:
此次LLM實驗是本人部署大模型的初體驗,Qwen1.5和2.0以及其他開源模型的親身部署與使用過程,加深了我對大模型的理解和認識,通過接觸模型庫,從本質上見證了語言模型的核心,同時也加強了對linux系統(tǒng)的使用熟練度,相信大家也有豐富收獲。