DeepSeek雖然是推理類大模型,對結(jié)構(gòu)化prompt的要求沒有那么訓(xùn)練類模型(如Kimi、Claude)那么高。
但是依然需要用戶擅長和它對話,而這就是AI時代最值錢的技能之一:指令調(diào)教。
一 為什么需要調(diào)教指令
AI輸出任務(wù)的難度不同,對指令的質(zhì)量要求截然不同,調(diào)教難度千差萬別。
如果只是一個不需要任何背景信息的客觀單任務(wù),比如明天杭州天氣,比如小米15和iphone 15性能對比,也就是說和用戶沒關(guān)系,答案非常穩(wěn)定,就不需要什么指令學(xué)問,隨便問,甚至搜索就能直接解決。
但如果這個任務(wù),個性化+多變量,那就需要好的指令。
如果對這2個關(guān)鍵詞不好理解,我們一個個來說。
第一,非常個性化,也就是和執(zhí)行人的背景信息高度相關(guān),比如去杭州旅行2天的攻略,1000個人有1000種玩法,預(yù)算上可以花100,也可以花10萬,景點(diǎn)安排上,酒店安排上,到處都是差異。
第二,是多變量復(fù)雜任務(wù)。
也就是說需要拆分為各種元素的,比如你讓AI幫你寫篇文章,但你知道,一篇文章由太多元素組合而成,標(biāo)題、開頭、正文、結(jié)構(gòu)、表達(dá)、語句、金句、結(jié)尾等等。
不做每個元素的限定指令,你心里想要的和AI實(shí)際生成的就會差之毫厘謬以千里。
二 指令調(diào)教的底層邏輯
所以指令調(diào)教,就像是給AI先教會,再讓它完成任務(wù)。
這個和人的學(xué)習(xí)非常像,比如我們每個人開車是手動眼動腳動腦動,基本上都已經(jīng)形成機(jī)械記憶了。
但是我們學(xué)駕照的時候,教練是怎么教我們的,是把一個個動作拆分給我們的,怎么換檔位,怎么踩剎車,怎么調(diào)燈光,怎么打方向盤等等。
那有人會問了,AI不是特別強(qiáng)大嘛,為什么我們還要去教他?
它確實(shí)很強(qiáng)大,但它強(qiáng)大的是它背后有海量的知識,比如GPT 4他被喂養(yǎng)了幾千萬本書了,DeepSeek也已經(jīng)被喂養(yǎng)了海量的中英文知識庫。
但是他是一個書呆子,他動手能力還不行,沒辦法執(zhí)行你的任務(wù),但好在他學(xué)習(xí)能力很強(qiáng),而且是真學(xué),這就需要你,先把任務(wù)做細(xì)化的拆分,先教會它。
這就像是一個老板和一個中高層給下面的同事布置任務(wù),是不是要根據(jù)這個人的身份,任務(wù)的目標(biāo),這個人的能力資源需求,還有具體要做的事情來布置。
這就是目前所有的高質(zhì)量的指令的底層邏輯,這是我開發(fā)并命名的CHAT模型,也是元指令。
這個元指令,我把它命名為CHAT模型,不是瞎編,瞎往ChatGPT上湊,是Character(角色), History(背景), Ambition(目標(biāo)), Task(行動)的首字母縮寫。
1 給它一個角色身份,告訴它它是誰。2 給它充分的上下文背景信息。3 告訴它你要實(shí)現(xiàn)什么目標(biāo)。4 明確告訴它幫你做什么。
三 AI指令的5個層次
不同層次的指令會帶來截然不同的生成結(jié)果。
這也是為什么AI在有些人手中是人工智障,但在高手手中是人工智能。
我調(diào)教過無數(shù)個指令,也看過很多別人調(diào)的指令,更看過海量的AI生成的指令。
根據(jù)生成質(zhì)量的不同,我把他們分為五個層次。
第一層,邏輯層,簡單的問是什么,為什么,怎么樣,答案類似搜索引擎,常常結(jié)果不讓人滿意。
比如你問AI,如何每天早起,得到的就是和搜索一樣的無用的廢話或道理。
他不知道你的背景信息,也不知道為什么要早起,更不知道你愿意為早起付出什么等等。
第二層,案例層,用一個例子投喂給AI,讓它模仿,結(jié)果超過第一層,但是模仿痕跡太過,創(chuàng)意不足。
這個方法其實(shí)很多人在用,比如給AI一個文案例子,然后讓他直接模仿,生成新的文案。
但是,通常情況下,質(zhì)量很不行。
這個質(zhì)量不行,來自于兩個原因,因?yàn)槟悴粔驅(qū)I(yè),你喂養(yǎng)他的這個案例根本質(zhì)量就不行,第二,AI的學(xué)習(xí)模仿能力還沒有這么強(qiáng)。
而且很多時候因?yàn)槟阄菇oAI的只是一兩個例子,他的輸出結(jié)果是很不穩(wěn)定的。
它在這個產(chǎn)品可以模仿,換別的產(chǎn)品呢,換別的品類呢,換別的行業(yè)呢。
第三層,模板層,用各種限制元素確定好的模板,直接套用。
這個模板層,有一個詞大家可能很熟悉,特別是有知識體系的人,就叫思維模型,或者叫方法論。
比如講故事,寫文章,就有SCQA模型,STORY模型、故事7步公式法模型等等。
那你用這些模型框架去給AI做限定,比如讓AI寫一篇1000字左右的講書稿,和讓AI用SCQA模型寫一篇講書稿,質(zhì)量就完全不一樣,而且有了框架支撐,就像人的骨架一樣,他的輸出結(jié)果是非常穩(wěn)定的。
比如目標(biāo)管理和教練技術(shù),就有GROW模型。
比如復(fù)盤總結(jié),就有PDCA模型。
比如做演講,就有黃金圈模型3W。
第四層,角色層,賦予它一個身份,讓它執(zhí)行你的任務(wù)。
聽過OpenAi首席的開發(fā)專家分享,再結(jié)合我自己的調(diào)教經(jīng)歷,我就發(fā)現(xiàn)給他一個身份,特別是專家身份,它的輸出結(jié)果就好很多。
這真的有跟人很像。
我還記得在十幾年前,我高考前的百日誓師大會上,一個學(xué)長就跟我們分享。
他說我之前也是一個很討厭學(xué)習(xí)的人,但自從有一天用了一個方法就是自我催眠,自我欺騙,說,我很愛學(xué)習(xí),就真的每天會多學(xué)一點(diǎn),慢慢的有進(jìn)步了,他就真的相信自己很愛學(xué)習(xí)。
這種心理暗示,其實(shí)是有科學(xué)來源的,在心理學(xué)要安慰劑效應(yīng)。
我在育兒的時候也很有體會,多表揚(yáng)閨女,多夸閨女,他就會表現(xiàn)的更好。
比如我們在指令里說,你是一個爆款文章寫作專家,就比直接說你幫我完成什么什么任務(wù),生成質(zhì)量要好很多。
但是如果我們給他下指令,說你是一個備受讀者吹捧的爆款文章寫作專家,你的粉絲像追小說連載一樣,追你的文章,生成的質(zhì)量效果就更好。
第五層,混合層,把前四層綜合運(yùn)用。
第五層就是混合層,我?guī)缀趺總€高質(zhì)量的指令都是用混合層來調(diào)整完成的。
有專業(yè)的角色身份,有優(yōu)質(zhì)的案例,有科學(xué)的思維模型框架,再加上具體的目標(biāo)和任務(wù)。
在這里舉個例子,完整的呈現(xiàn)一下我調(diào)教一個高質(zhì)量指令的全過程。
比如我在調(diào)教爆款標(biāo)題指令的時候。
第一步,找到大量非常優(yōu)質(zhì)的爆款標(biāo)題,特別是咪蒙的標(biāo)題。
這第一步非常關(guān)鍵,如果你沒有判斷爆款標(biāo)題的能力,你喂養(yǎng)給AI的標(biāo)題語料都是很劣質(zhì)的,你自己不是行業(yè)內(nèi)的細(xì)分專家,你不可能調(diào)教出高質(zhì)量指令。
就像人吃的食物很劣質(zhì),就不可能有健康的身體,也不可能有很好的工作表現(xiàn)。
第二步,讓AI總結(jié)出爆款標(biāo)題的特點(diǎn)。
第三步,把自己的爆款標(biāo)題方法改造成AI懂的。
用你自己的爆款標(biāo)題方法論和這些特點(diǎn)做一個結(jié)合。
有人可能會問了,為什么不直接把自己的爆款標(biāo)題方法給到AI讓他直接去生成。
因?yàn)楹芏鄷r候你的爆款標(biāo)題方法論,他之前沒有學(xué)習(xí)過,但是沒有創(chuàng)造能力的。
還記得我們始終要堅持的一點(diǎn)嗎,先把AI教會再讓它來幫助我們完成高難度的任務(wù)。
我們前面幾步的把標(biāo)題語料喂養(yǎng)給他,并讓他總結(jié),其實(shí)就是他的一個模仿學(xué)習(xí)過程。
第四步,用CHAT模型和模型框架+案例
給Ai下任務(wù),這一步是測試我們的爆款標(biāo)題指令是否能夠生成高質(zhì)量的標(biāo)題。
第五步,大面積推理測試
第五步是測試它的穩(wěn)定性,看這個指令是否能夠高質(zhì)量的生成不同場景的高質(zhì)量標(biāo)題。
不同類型的文章,不同類型的視頻,不同類型的文案,不同類型的書籍。
哪個類型發(fā)揮失常,就需要繼續(xù)加限制。
比如我前段時間用得到AI來生成書籍的金句,就發(fā)現(xiàn)如果我不限定這個金句的來源,他就會胡編亂造。
第一版本是幫我給《活著》這本書找十個金句,第二個版本結(jié)果就好很多,幫我給《活著》這本書找十個金句,并說明在書中哪里。
第六步,用打分指令,給這個終極指令再打個分優(yōu)化一下。