国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
免費GPU算力本地跑DeepSeek R1,無懼官方服務(wù)繁忙!

最近 DeepSeek 爆火,不只是在自媒體上!

你看 ollama library 上,上線 8 天,就達(dá)到了 3.9 M 下載量,這熱度,要甩第二名 llama3.3 好幾條街!

前段時間,官網(wǎng)頻繁出現(xiàn)反應(yīng)遲緩,甚至宕機。

不過,這是個開源模型啊,何不本地部署一個,自己用的盡興。

有朋友問:沒有顯卡咋跑?

今日分享,帶大家用免費 GPU 算力,本地跑 DeepSeek R1 !

1. 騰訊 Cloud Studio

免費算力?

Google Colab?沒梯子還真用不了。

不過,最近騰訊豪橫,推出了一款云端 IDE -- Cloud Studio,類似百度飛槳 AI Studio 的一款產(chǎn)品。

不過,百度的云端 IDE,只能跑 PaddlePaddle 深度學(xué)習(xí)開發(fā)框架,但凡發(fā)現(xiàn)你在跑 PyTorch 等其他框架,立馬 kill。

這下好,競品來了,騰訊 Cloud Studio,完全無使用限制,每月可免費使用 1000 分鐘?。?/span>隨用隨開,及時關(guān)機)

傳送門:https://ide.cloud.tencent.com/

想動手玩玩的盆友,抓緊了~

2. Ollama 跑 DeepSeek

關(guān)于 Ollama 的使用,可以翻看之前教程:本地部署大模型?Ollama 部署和實戰(zhàn),看這篇就夠了

2.1 創(chuàng)建實例

創(chuàng)建實例時,選擇從 AI模板 開始:

稍等 2 分鐘,即可創(chuàng)建成功!

進(jìn)來后,ctrl+~ 快捷鍵,打開終端,你看連 conda 虛擬環(huán)境都給你裝好了~

先來看看給預(yù)留了多大存儲空間:

有點遺憾,掛載了不到 50G 的磁盤,系統(tǒng)鏡像就占了 21 G,省著點用吧,稍微大點的模型,模型權(quán)重都放不下。

內(nèi)存呢?

32G 內(nèi)存, Nice ~

再來看看顯存啥情況?

給安排了一張 T4 的推理卡,16G 顯存。

2.2 拉取模型權(quán)重

最后看看 ollama 啥情況?

(base) root@VM-16-158-ubuntu:/workspace# ollama list
NAME             ID              SIZE      MODIFIED    
llama3:latest    365c0bd3c000    4.7 GB    3 weeks ago 

預(yù)裝了 llama 3,刪,上主角:DeepSeek R1!

ollama rm llama3
ollama run deepseek-r1:14b

考慮到只有 16G 顯存,如果要用 GPU,最大只能選擇 14b 模型。

如果下載速度太慢,命令殺掉,重新下載即可!

模型拉取結(jié)束,就可以開始玩耍了。

2.3 模型初體驗

就這么簡單,跑起來了~

再來個復(fù)雜點的任務(wù):

怎么樣?

最后,來看下顯存占用如何:11 G 足夠了。

2.4 內(nèi)網(wǎng)穿透出來

Cloud Studio 的虛擬機無法安裝 docker,所以無法采用 docker 的方式安裝 web UI。

且沒有公網(wǎng) IP,咋搞?

總不能每次都得打開終端來用。

這里,介紹一種最簡單的內(nèi)網(wǎng)穿透方法:cloudflared,簡單三步搞定!

關(guān)于內(nèi)網(wǎng)穿透,猴哥之前有幾篇教程,不了解的小伙伴可以往前翻看。

step 1: 安裝 cloudflared:

wget https://mirror.ghproxy.com/https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-amd64.deb
dpkg -i cloudflared-linux-amd64.deb
cloudflared -v

step 2: 查看 ollama 的端口號:

step 3: 穿透出來:

cloudflared tunnel --url http://127.0.0.1:6399

cloudflared 會輸出一個公網(wǎng)可訪問的鏈接:

打開瀏覽器試試吧~

接下來,你可以在本地的任何 UI 界面,用這個 URL 玩耍 DeepSeek-R1 了~

寫在最后

本文分享了如何用免費GPU 算力部署 DeepSeek 的推理模型,并內(nèi)網(wǎng)穿透出來,任性調(diào)用。

如果對你有幫助,歡迎點贊收藏備用。

注:DeepSeek-R1 是推理模型,和對話模型不同的是,它多了自我思考的步驟,適合編程、數(shù)學(xué)等邏輯思維要求高的應(yīng)用。


本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
手機跑 DeepSeek-R1 大模型?這次真的不是噱頭!
LLM On Kubernetes
【Llama3:8b】手把手教你如何在本地部署 自己的 AI 大模型
如何在本地計算機上安裝和使用 DeepSeek R1
更上層樓!僅用2GB資源,讓最火的DeepSeek-R1在本機上奔跑!
【工具1014】本地部署AI第一步,下載并配置ollama
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服