国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
筆記本上裝DeepSeek

這兩天deepseek-R1在春節(jié)刷屏了,他用較低的成本復(fù)現(xiàn)了Open Ai O1推理模型的效果,把本來OpenAi唔得死死的秘密給公開了。更加厲害的是他還開源了,讓每個人都有機會做出O1這樣的產(chǎn)品,真是太炸裂了。

現(xiàn)在DeepSeek推理模型這么火,并且最近由于黑客攻擊也經(jīng)常崩,那我們就來建一個本地的推理大模型吧,趁春節(jié)假期趕緊學(xué)起來。

我介紹的內(nèi)容不需要有任何技術(shù)知識、也不需要有開發(fā)經(jīng)驗,全部通過軟件操作和命令行來完成(復(fù)制黏貼,搬磚大法)。

01 本地安裝環(huán)境準(zhǔn)備

1.1、電腦硬件環(huán)境

先說一下電腦硬件要求,如果要順暢的運行建議是以下的配置。

不過也不用擔(dān)心,我們只是使用大模型而不是做微調(diào)和訓(xùn)練,所以硬件只要滿足最低要求就行了。實際使用下來我的Mac電腦,16G內(nèi)存、集成顯卡也能運行起來也挺順暢的。

將來要微調(diào)、訓(xùn)練模型我們再考慮是否要升級電腦或者租用云環(huán)境。

1.2、系統(tǒng)安裝環(huán)境

  

這次安裝要用到兩個工具Docker和Ollama這兩個容器,什么叫容器呢?就是你的應(yīng)用程序和模型運行的環(huán)境。

1)Docker容器:是一個開源的容器引擎,你的應(yīng)用只要安裝一次就能在各種平臺上運行。在這里我們用它來運行WebUI這個大模型的前端操作界面。

2)Ollama:是一個開源的AI工具平臺,他可以托管很多的大模型在本地運行,支持模型的任意切換。

容器的好處,就是你不用安裝一堆pip、Conda這類python包管理工具,也不用把你本地環(huán)境變量改的亂七八糟,更不用把程序和模型安裝的到處都是占用資源。這些他都幫你管了,你部署即用非常的方便。

下面我們就開始玩大模型吧,對了,有個重要的事情提前說下

你需要提前準(zhǔn)備梯子,安裝過程中你的梯子必須保持網(wǎng)絡(luò)通暢。

02 用Ollama安裝模型

2.1、安裝Ollama

你需要去訪問“https://ollama.com/”去下載Ollama的客戶端,他現(xiàn)在支持“Linux、MacOs、Windows”,根據(jù)你電腦的操作系統(tǒng)選擇下載即可。(我用的是Mac)

載到本地后安裝ollama應(yīng)用(過程比較簡單,一路默認(rèn)就行了),安裝完成后你可以在系統(tǒng)托盤中找到Ollama圖標(biāo),說明他已經(jīng)運行了(他沒有圖形界面,用命令行運行)

  

2.2、獲取安裝指令

Ollama運行后我們就要去下載deepseek-R1模型了,我們還是官網(wǎng)選擇Modle這里有很多的大模型可供選擇,deepseek-R1排在了首位,我們直接點擊進入主題。

進入主題后我們可以看到deepseek提供了很多的版本(數(shù)字越大,對顯卡的顯存要求越高),我的電腦是Mac用的集成顯卡,所以我們選一個小版本的7B下載,有4090顯卡的土豪同學(xué)隨意。

2.3、安裝R1模型

模型安裝后,我們復(fù)制指令用來在本地運行deepseek。

運行命令

ollama run deepseek-r1:7b

下面我們打開終端運行上面的命令,如果是第一次使用該模型,Ollama回去其網(wǎng)站下載后再運行。如果本地已經(jīng)下載了,大模型就直接運行起來了。

  

輸入幾句話試了下,他確實很快就回復(fù)我,看來安裝的沒問題。

03、安裝Docker環(huán)境

命令行交互太不友好了,我們來裝一個操作界面。這里我選擇的是WebUI,我們把他放到Docker這個容器里來管理,不用安裝python的包管理工具,也不用到處找你程序安裝在哪里了,他都幫你管了。

3.1、安裝Docker

先從官網(wǎng) https://www.docker.com 下載,選擇你合適你操作系統(tǒng)的版本就行了,下載后直接安裝就行了(按操作執(zhí)行即可,這里不贅述了)

  

3.2、運行Docker環(huán)境

安裝后運行Docker環(huán)境就能啟動Docker,他不僅是系統(tǒng)托盤有個“小鯨魚”圖標(biāo),同時他也有界面,你可以看到Docker中安裝了哪些應(yīng)用程序。

3.3、安裝WebUI

Docker裝好后我們來運行WebUI界面,方法也和安裝模型一樣,你可以訪問WebUI在GitHub上的地址來獲取命令。

訪問這個地址:https://github.com/open-webui/open-webui

我們直接讓他在Docker上運行,選擇“If Ollama is on your computer, use this command”

獲取后你直接在終端輸入如下命令把WebUI安裝到Docker并運行。

  

3.4、啟動WebUI

啟動WebUI你先要確保ollama中的deepseek處于運行狀態(tài),你如果不小心關(guān)閉了可以使用以下命令重新啟動,并且不要關(guān)閉這個窗口。

啟動deepseek命令

ollama run ;deepseek-r1:7b

  

點擊Docker中上圖的鏈接就能打開WebUI的界面也可以在瀏覽器輸入“http://localhost:3000/”進入WebUI了。

04、使用DeepSeek

4.1、WebUI主要功能

  

WebUI的功能還是非常強大的,除了做基本問答以外,他支持模型切換,文件上傳等功能,甚至還支持語音輸入和人機對話。

4.2、DeepSeek問答能力

  

雖然只有7B的小模型,通過推理給出的內(nèi)容確實比較詳細(xì),不過生成速度較慢(應(yīng)該是我電腦的原因),當(dāng)然與官網(wǎng)的671B比詳細(xì)程度要略遜一籌,不過這也正常畢竟只是7B的小模型。

4.3、推理與傳統(tǒng)問答比較

我們和同樣大小的qwen7B來比較下,擁有推理能力和傳統(tǒng)問答模型有什么區(qū)別。DeepSeek經(jīng)過推理洋洋灑灑的回答了十幾條,而千問回答的則非常簡單。果然有沒有推理能力差別確實很大。

  

4.4、文件和圖片分析

下面來看下他的文件分析能力和圖片識別能力。在文件分析和概括方面挺不錯的通讀了全文,并且對內(nèi)容進行忠實的還原和總結(jié)。

  圖片識別能力就不行了,DeepSeek7B這個模型不具備識別圖片的能力。而官網(wǎng)的模型則可以準(zhǔn)確的讀出圖片中的主要內(nèi)容,并且給出了示例以及圖片總結(jié)。

  

講在最后

DeepSeek經(jīng)過推理后給出的內(nèi)容確實比傳統(tǒng)問答模型要詳細(xì)和完整,即使是一個7B的小模型給出的結(jié)果也非常好,當(dāng)然比官網(wǎng)略遜。

在文件分析方面DeepSeek分析結(jié)果也比較完整和忠于原文,不過本地的7B版本不能識別圖片是個遺憾。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
DeepSeek R1,本地部署才是王道!支持WebUI
本地運行大模型,復(fù)刻ChatGPT聊天界面
Ollama WebUI AnythingLLM,構(gòu)建安全可靠的個人/企業(yè)知識庫
搭建本地大模型和知識庫最簡單的方法
使用Ollama本地部署大模型
deepseek本地化部署,培養(yǎng)你自己的AI,這樣操作就對了。
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服