最近 DeepSeek 爆火,不只是在自媒體上!
你看 ollama library 上,上線 8 天,就達(dá)到了 3.9 M 下載量,這熱度,要甩第二名 llama3.3 好幾條街!
前段時間,官網(wǎng)頻繁出現(xiàn)反應(yīng)遲緩,甚至宕機。
不過,這是個開源模型啊,何不本地部署一個,自己用的盡興。
有朋友問:沒有顯卡咋跑?
今日分享,帶大家用免費 GPU 算力,本地跑 DeepSeek R1 !
免費算力?
Google Colab?沒梯子還真用不了。
不過,最近騰訊豪橫,推出了一款云端 IDE -- Cloud Studio,類似百度飛槳 AI Studio 的一款產(chǎn)品。
不過,百度的云端 IDE,只能跑 PaddlePaddle 深度學(xué)習(xí)開發(fā)框架,但凡發(fā)現(xiàn)你在跑 PyTorch 等其他框架,立馬 kill。
這下好,競品來了,騰訊 Cloud Studio,完全無使用限制,每月可免費使用 1000 分鐘?。?/span>隨用隨開,及時關(guān)機)
傳送門:https://ide.cloud.tencent.com/
想動手玩玩的盆友,抓緊了~
關(guān)于 Ollama 的使用,可以翻看之前教程:本地部署大模型?Ollama 部署和實戰(zhàn),看這篇就夠了
創(chuàng)建實例時,選擇從 AI模板
開始:
稍等 2 分鐘,即可創(chuàng)建成功!
進(jìn)來后,ctrl+~ 快捷鍵,打開終端,你看連 conda 虛擬環(huán)境都給你裝好了~
先來看看給預(yù)留了多大存儲空間:
有點遺憾,掛載了不到 50G 的磁盤,系統(tǒng)鏡像就占了 21 G,省著點用吧,稍微大點的模型,模型權(quán)重都放不下。
內(nèi)存呢?
32G 內(nèi)存, Nice ~
再來看看顯存啥情況?
給安排了一張 T4 的推理卡,16G 顯存。
最后看看 ollama 啥情況?
(base) root@VM-16-158-ubuntu:/workspace# ollama list
NAME ID SIZE MODIFIED
llama3:latest 365c0bd3c000 4.7 GB 3 weeks ago
預(yù)裝了 llama 3,刪,上主角:DeepSeek R1!
ollama rm llama3
ollama run deepseek-r1:14b
考慮到只有 16G 顯存,如果要用 GPU,最大只能選擇 14b 模型。
如果下載速度太慢,命令殺掉,重新下載即可!
模型拉取結(jié)束,就可以開始玩耍了。
就這么簡單,跑起來了~
再來個復(fù)雜點的任務(wù):
怎么樣?
最后,來看下顯存占用如何:11 G 足夠了。
Cloud Studio 的虛擬機無法安裝 docker,所以無法采用 docker 的方式安裝 web UI。
且沒有公網(wǎng) IP,咋搞?
總不能每次都得打開終端來用。
這里,介紹一種最簡單的內(nèi)網(wǎng)穿透方法:cloudflared,簡單三步搞定!
關(guān)于內(nèi)網(wǎng)穿透,猴哥之前有幾篇教程,不了解的小伙伴可以往前翻看。
step 1: 安裝 cloudflared:
wget https://mirror.ghproxy.com/https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-amd64.deb
dpkg -i cloudflared-linux-amd64.deb
cloudflared -v
step 2: 查看 ollama 的端口號:
step 3: 穿透出來:
cloudflared tunnel --url http://127.0.0.1:6399
cloudflared 會輸出一個公網(wǎng)可訪問的鏈接:
打開瀏覽器試試吧~
接下來,你可以在本地的任何 UI 界面,用這個 URL 玩耍 DeepSeek-R1 了~
本文分享了如何用免費GPU 算力部署 DeepSeek 的推理模型,并內(nèi)網(wǎng)穿透出來,任性調(diào)用。
如果對你有幫助,歡迎點贊收藏備用。
注:DeepSeek-R1 是推理模型,和對話模型不同的是,它多了自我思考的步驟,適合編程、數(shù)學(xué)等邏輯思維要求高的應(yīng)用。