国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
或許是全網(wǎng)最全的 DeepSeek 使用指南,90% 的人都不知道的使用技巧(建議收藏)

從 DeepSeek R1 發(fā)布那天開始,我就開始寫文章介紹 DeepSeek,沒想到這幾天這么火爆了。

不過我在翻看評論區(qū)時,發(fā)現(xiàn)很多朋友并沒有很好的發(fā)揮出 DeepSeek R1 的潛能。

朋友們,我真是著急啊。

心急之下,趕緊寫了這篇文章,教大家一些有用的技巧,并提供一些案例,來讓 DeepSeek R1 成為咱們的得力干將。

在哪使用 DeepSeek

為照顧一些新手朋友,這里還是先說下在哪使用 DeepSeek,老手跳過這部分就行了。

目前 DeepSeek 提供了如下使用方式:

1. 網(wǎng)頁版:打開 https://chat.deepseek.com/ 直接使用。

2. App:手機掃碼下載。

默認(rèn)情況下,DeepSeek 使用的是 V3 模型,點擊深度思考才會切換為 R1 模型,即現(xiàn)在讓“硅谷震驚”的模型。

深度思考旁邊還有個聯(lián)網(wǎng)搜索,默認(rèn)情況下 DeepSeek 使用的是好幾個月前的訓(xùn)練數(shù)據(jù),如果我們想?yún)⒖甲钚碌男侣?,則點擊聯(lián)網(wǎng)搜索讓 DeepSeek R1 基于最新的網(wǎng)絡(luò)數(shù)據(jù)來優(yōu)化回答。

另外 DeepSeek 還提供了服務(wù)狀態(tài)的監(jiān)控,可以打開 https://status.deepseek.com 查看服務(wù)狀態(tài)。

一般來說,當(dāng)服務(wù)狀態(tài)為紅色時,會較頻繁的出現(xiàn)“服務(wù)器繁忙,請稍后再試”的提示。

基礎(chǔ)技巧

好了,現(xiàn)在正式進(jìn)入正題,看看用什么技巧能讓 DeepSeek R1 成為我們的得力助手。

直接提需求

首先說下 DeepSeek 相對于 GPT 等主流大模型的區(qū)別。

GPT 等主流大模型是指令型大模型。

這類大模型需要我們給它說下比較詳細(xì)的流程,它的回答才會讓我們滿意。

比如我們想讓 GPT 4o 扮演中國媽媽讓孩子相親:“請你扮演我媽,用我媽的口氣來教育我,批評我,催我結(jié)婚,讓我回家。給我講七大姑八大姨家的孩子都結(jié)婚了,為啥就我單身,再給我安排幾個相親對象?!?/span>

演示效果如下:

上面的提示詞不僅交代了需求背景(“用我媽的口氣來教育我”),還交代了一些額外的流程(“七大姑八大姨家的孩子都結(jié)婚了”,“再安排幾個相親對象”)等。

因此去年在 ChatGPT 這類指令型大模型很火的時候,出現(xiàn)了很多提示詞模板,甚至誕生了“提示詞工程師”這一崗位。

而 DeepSeek R1 屬于推理型大模型。

這類模型不需要我們列出太詳細(xì)的流程,太詳細(xì)的流程反而會降低它們的性能,限制它們的發(fā)揮。

DeepSeek R1 在發(fā)表的論文中也提到:DeepSeek R1對提示詞很敏感。為獲得最佳效果,建議用戶直接描述問題。

我們用問題 “當(dāng)老黃看到英偉達(dá)的股價因為 DeepSeek R1 暴跌 17% 時,寫出他的內(nèi)心獨白” 為例,對比下幾個主流大模型,就能看出一些區(qū)別。

先看看豆包的回答:

豆包的輸出只有心理描述,略顯空洞乏味。

接著看看 GPT-4o 的回答:

GPT-4o 加了點人物動作,回答相對于豆包豐富了一些,不過仍然比較空洞。

再看看 Claude 3.5 Sonnet 的回答:

Claude 不僅說之前英偉達(dá)也大跌過,還提到了英偉達(dá)的生態(tài)系統(tǒng),整個回答會讓人有信服感。

最后看看 DeepSeek R1 的答案:

相對于前幾個大模型,DeepSeek 自己“加了很多戲”,不過讀起來更形象也更有畫面感。

所以對于 DeepSeek R1 而言,我們完全可以把自己想象成老板,DeepSeek R1 是我們請的一位專業(yè)助手。

這位專業(yè)助手不需要我們告訴它應(yīng)該怎么做,我們只管“當(dāng)大爺”提需求,讓助手干活就行了。

可能幾次交流之后,你會得出這樣的結(jié)論:我們是真不如 AI 那樣博學(xué)啊。

下面再介紹一些技巧,讓你的 DeepSeek 好用到爆。

萬能提問模板

雖然直接提問題已經(jīng)能得到不錯的答案,但如果再加上“背景描述”這個簡單的優(yōu)化,還能讓回答更上一層樓。

背景描述指的是向 DeepSeek R1 說清楚我是誰(如我一個互聯(lián)網(wǎng)打工人)、我當(dāng)前的水平(如我是自媒體小白)、我想讓 DeepSeek 充當(dāng)?shù)慕巧ㄈ缒闶且幻悦襟w運營專家)等。

有時 DeepSeek 回答的內(nèi)容可能不是你想要的,這時我們可以增加約束條件,來限制、優(yōu)化它回答的內(nèi)容。

所以可總結(jié)成這個簡單、萬能的 DeepSeek 提問模板,即:  

背景+需求+約束條件可選)。

如:我家小孩讀初一(交待背景),怎樣提高他的英語水平(提出需求),不需要考慮口語問題 (約束條件,可選)。

可以看到 DeepSeek 這位助手十分貼心,不僅列了如何高效學(xué)習(xí)單詞、語法、閱讀和寫作,還提供了一些應(yīng)試技巧和日常訓(xùn)練的方法。

如果我們覺得這位助手的回答還不夠深入,完全可以讓它針對某一點再展開詳細(xì)說說。

用好這個簡單的模板,能解決 90% 的日常問題,讓 DeepSeek 瞬間成為我們工作、學(xué)習(xí)、生活的好幫手。

讓 DeepSeek “說人話”

模板雖好用,但是當(dāng)我們問到一些專業(yè)領(lǐng)域的問題時,DeepSeek 的回答會摻雜很多專業(yè)名詞來解釋問題。

如果我們是行業(yè)內(nèi)的人,專業(yè)名詞能幫我們快速清楚的解釋明白問題。

但如果這個領(lǐng)域剛好不是我們擅長的話,通常都會覺得這些專業(yè)名詞晦澀難懂,不知所云。

碰到這種情況,我們只需要在提示詞中加上“說人話”、“大白話”、“通俗易懂” 等,DeepSeek 給我們的用戶體驗會立馬提升一個檔次。

比如我問他“DeepSeek 成本這低的原因是什么”。

上面的回答并沒有什么問題,如果我們是業(yè)內(nèi)人士,自然知道 MoE 架構(gòu)、蒸餾和 FP8 是什么意思。

遺憾的是,可能 99% 的人根本不明白上述回答到底說的是什么意思。

這時我們只需要簡單的加上“說人話”三個字,就能得到一個通俗易懂的答案了。

這里 DeepSeek 會用“100 個員工中只讓 10 個員工干活”解釋 MoE 架構(gòu),用“高清電影轉(zhuǎn) MP4 格式”來解決 FP8。

是不是一下就懂了!

模仿回答

我們還可以用“模仿 X”、“以 X 的口吻/語氣”,“以 X 的內(nèi)心獨白”等等提示詞,把 DeepSeek 的使用體驗拉滿。

比如我們可以用知乎常用格式回應(yīng) DeepSeek 導(dǎo)致英偉達(dá)股價暴跌的問題。

用貼吧暴躁老哥的語氣回應(yīng)美國多名官員稱 DeepSeek 偷竊了他們的技術(shù)。

好家伙,我都能感覺它的唾沫星子快飛到我臉上了。貼吧 10 級的噴人水平也自愧不如吧。。。

我們還可以讓 DeepSeek 模仿李白給我們寫春聯(lián)。

讓《雪中悍刀行》的作者烽火戲諸侯,寫短篇小說給我們看。

有網(wǎng)友分享了“哲學(xué)大師”,看大師說的話,是不是頗有哲理?

可以看到,使用模仿人物的方法,能達(dá)到意想不到的結(jié)果。

高級技巧

這里再提供幾個比較繁瑣但高級的用法。

多模型組合

對于復(fù)雜場景,通常一個 AI 模型并不能得到很好的效果,此時我們可以將 DeepSeek R1 與 GPT-4o 或 Claude 3.5 Sonnet 組合使用。

一般來說,可以先讓 DeepSeek R1 告訴我們應(yīng)該怎么處理問題,然后根據(jù)它給的答案讓指令型大模型去生成結(jié)果。

業(yè)務(wù)分析

如果我們想分析業(yè)務(wù),可以開啟“聯(lián)網(wǎng)搜索”實時搜索內(nèi)容,還能上傳附件來精準(zhǔn)分析。

比如我們想在小紅書上起號,可以直接“聯(lián)網(wǎng)搜索”對標(biāo)賬號,讓 DeepSeek R1 給我們一個起號流程。

對于不能搜索的地址,先手動下載資料后,再上傳給 DeepSeek R1 幫助分析。

DeepSeek R1 不僅能給出具體流程,還會生成一些 mermaid 圖表,非常好用。

以我測試的結(jié)果看,一波策劃和數(shù)據(jù)分析師要失業(yè)了。

DeepSeek 不適合做什么

DeepSeek 碰到一些問題類型時會提示“無法思考這類問題”。

一般來說,主要是如下幾類問題:  

1. 敏感內(nèi)容:國產(chǎn)審核比較嚴(yán),這里不說多了,懂得也懂。

2. 長文本內(nèi)容:現(xiàn)在 DeepSeek 模型上下文長度最長為 6 萬 4 千個 token,最大輸出長度為 8 千個 token,默認(rèn)輸出長度為 4 千個 token。

這里科普下,一個 token 指的是一個語義單元,如一個單詞或單詞的一部分結(jié)構(gòu)(詞根或后綴)或標(biāo)點符號等。

而上下文長度包括輸入長度(如用戶問題、對話歷史等)和輸出長度。

目前主流大模型服務(wù)商提供的最大上下文長度如下:

1. 豆包:25.6 萬 token

2. GPT-4o、GPT-o1:12.8 萬個 token

3. Claude Pro:20 萬個 token (約500頁文本或100張圖片)

4. Gemini 1.5 Flash:100 萬個 token

5. Gemini 1.5 Pro:200 萬個 token

不知不覺寫了這么多,由于篇幅有限,這里就先聊到這。

其實還有很多內(nèi)容還沒寫出來,大家可以先關(guān)注我,后續(xù)會持續(xù)給大家?guī)硪恍└韶洝?/span>

最后再說一句,從去年 ChatGPT 的爆火到現(xiàn)在的 DeepSeek R1 的轟動,AI 就像當(dāng)年的智能手機一樣,開始慢慢滲透進(jìn)我們的生活,以后肯定會成為你我日常生活中的一部分。

大家應(yīng)該很難相信,人類現(xiàn)在沒有手機會變成什么樣。

同樣的,我相信再過 10 年,我們也離不開 AI。

所以,如果你覺得本文對你有幫助,請轉(zhuǎn)給你身邊需要使用 AI 的家人朋友,讓他們也能像你一樣,更好地使用 AI 工具。

END

關(guān)注我,及時獲取更多有趣資訊

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
大模型相繼出爐,DeepSeek與豆包誰更強?(附DeepSeek與豆包相關(guān)公司)
這才是DeepSeek的正確提問使用方式!你還在用GPT那套就廢了,春節(jié)最后預(yù)警
萬億參數(shù)大模型MiniMax一鍵免費接入微信,還有通義、Kimi,扣子平臺再升級
2萬字長文,如何成為一個“懂”AI 的產(chǎn)品經(jīng)理?
Deepseek V3到底顛覆了什么
幻方大模型概念股梳理
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服