国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
大模型「幻覺」,看這一篇就夠了 | 哈工大華為出品

西風(fēng) 發(fā)自 凹非寺

大模型“幻覺”,終于有系統(tǒng)綜述了!

一口氣49頁,詳細闡述了幻覺定義、分類、導(dǎo)致幻覺的原因,還有檢測幻覺、減輕幻覺的方法。

這篇最新綜述來自哈工大和華為,一po出就在網(wǎng)上火得不行:

具體來說,文中用一套新的范疇框架來定義模型幻覺,并將其分為事實性幻覺忠實性幻覺兩大類。

此外,它還總結(jié)了模型產(chǎn)生幻覺的三大來源:數(shù)據(jù)源訓(xùn)練過程推理,并給出了對應(yīng)的減輕幻覺策略。

一圖預(yù)覽,觀感是這樣嬸兒的:

可謂清晰又明了。目前相關(guān)推文瀏覽15萬+,轉(zhuǎn)贊收藏2000+,網(wǎng)友紛紛評論:

找時間好好看。

還有一位網(wǎng)友的評論亮了:

有意思的是,論文太長,我得用ChatGPT幫我讀。

幻覺作為大模型的一種“通病”,找到了病根,也好對癥下藥。

北大數(shù)學(xué)教授董彬也曾講,作為研究者,自己其實是比較喜歡大模型幻覺的:

因為幻覺和創(chuàng)造/創(chuàng)新其實只有一線之隔。

那么這篇綜述具體如何解剖大模型幻覺現(xiàn)象?一起來看看。

大模型的幻覺“病理”

大模型出現(xiàn)幻覺,簡而言之就是“胡說八道”。

用文中的話來講,是指模型生成的內(nèi)容與現(xiàn)實世界事實或用戶輸入不一致的現(xiàn)象。

正如上文提到的,研究人員將大模型的幻覺分為事實性幻覺(Factuality Hallucination)和忠實性幻覺(Faithfulness Hallucination)。

△左,事實性幻覺;右,忠實性幻覺

事實性幻覺,是指模型生成的內(nèi)容與可驗證的現(xiàn)實世界事實不一致。

比如問模型“第一個在月球上行走的人是誰?”,模型回復(fù)“Charles Lindbergh在1951年月球先驅(qū)任務(wù)中第一個登上月球”。實際上,第一個登上月球的人是Neil Armstrong。

事實性幻覺又可以分為事實不一致(與現(xiàn)實世界信息相矛盾)和事實捏造(壓根沒有,無法根據(jù)現(xiàn)實信息驗證)。

忠實性幻覺,則是指模型生成的內(nèi)容與用戶的指令或上下文不一致。

比如讓模型總結(jié)今年10月的新聞,結(jié)果模型卻在說2006年10月的事。

忠實性幻覺也可以細分,分為指令不一致(輸出偏離用戶指令)、上下文不一致(輸出與上下文信息不符)、邏輯不一致三類(推理步驟以及與最終答案之間的不一致)。

那么致使大模型產(chǎn)生幻覺的原因都有哪些?

首先“病從口入”,大模型的糧食數(shù)據(jù),是致使它產(chǎn)生幻覺的一大原因。

這其中就包括數(shù)據(jù)缺陷、數(shù)據(jù)中捕獲的事實知識的利用率較低。

具體來說,數(shù)據(jù)缺陷分為錯誤信息和偏見(重復(fù)偏見、社會偏見),此外大模型也有知識邊界,所以存在領(lǐng)域知識缺陷和過時的事實知識。

即便大模型吃掉了大量數(shù)據(jù),也會在利用時出現(xiàn)問題。

大模型可能會過度依賴訓(xùn)練數(shù)據(jù)中的一些模式,如位置接近性、共現(xiàn)統(tǒng)計數(shù)據(jù)和相關(guān)文檔計數(shù),從而導(dǎo)致幻覺。比如說,如果訓(xùn)練數(shù)據(jù)中頻繁共現(xiàn)“加拿大”和“多倫多”,那么大模型可能會錯誤地將多倫多識別為加拿大的首都。

此外,大模型還可能會出現(xiàn)長尾知識回憶不足、難以應(yīng)對復(fù)雜推理的情況。

除了數(shù)據(jù),訓(xùn)練過程也會使大模型產(chǎn)生幻覺。

主要是預(yù)訓(xùn)練階段(大模型學(xué)習(xí)通用表示并獲取世界知識)、對齊階段(微調(diào)大模型使其更好地與人類偏好一致)兩個階段產(chǎn)生問題。

預(yù)訓(xùn)練階段可能會存在:

  • 架構(gòu)缺陷?;谇耙粋€token預(yù)測下一個token,這種單向建模阻礙了模型捕獲復(fù)雜的上下文關(guān)系的能力;自注意力模塊存在缺陷,隨著token長度增加,不同位置的注意力被稀釋。

  • 曝露偏差。訓(xùn)練策略也有缺陷,模型推理時依賴于自己生成的token進行后續(xù)預(yù)測,模型生成的錯誤token會在整個后續(xù)token中產(chǎn)生級聯(lián)錯誤。

對齊階段可能會存在:

  • 能力錯位。大模型內(nèi)在能力與標注數(shù)據(jù)中描述的功能之間可能存在錯位。當對齊數(shù)據(jù)需求超出這些預(yù)定義的能力邊界時,大模型會被訓(xùn)練來生成超出其自身知識邊界的內(nèi)容,從而放大幻覺的風(fēng)險。

  • 信念錯位?;赗LHF等的微調(diào),使大模型的輸出更符合人類偏好,但有時模型會傾向于迎合人類偏好,從而犧牲信息真實性。

大模型產(chǎn)生幻覺的第三個關(guān)鍵因素是推理,存在兩個問題:

  • 固有的抽樣隨機性:在生成內(nèi)容時根據(jù)概率隨機生成。

  • 不完美的解碼表示:上下文關(guān)注不足(過度關(guān)注相鄰文本而忽視了源上下文)和softmax瓶頸(輸出概率分布的表達能力受限)。

檢測大模型病癥

分析了大模型的幻覺病因,研究人員還給出了一份模型幻覺檢測基準。

針對事實性幻覺,已有檢索外部事實和不確定性估計兩種方法。

檢索外部事實是將模型生成的內(nèi)容與可靠的知識來源進行比較。

基于不確定性估計的幻覺檢測方法,可以分為兩類:基于內(nèi)部狀態(tài)的方法和基于行為的方法。

基于內(nèi)部狀態(tài)的方法主要依賴于訪問大模型的內(nèi)部狀態(tài)。例如,通過考慮關(guān)鍵概念的最小標記概率來確定模型的不確定性。

基于行為的方法則主要依賴于觀察大模型的行為,不需要訪問其內(nèi)部狀態(tài)。例如,通過采樣多個響應(yīng)并評估事實陳述的一致性來檢測幻覺。

檢測忠實性幻覺的方法,研究人員用一張圖概括了五種不同的方法:

  • 基于事實的度量,測量生成內(nèi)容和源內(nèi)容之間事實的重疊程度來評估忠實性。

  • 分類器度量:使用訓(xùn)練過的分類器來區(qū)分模型生成的忠實內(nèi)容和幻覺內(nèi)容。

  • 問答度量:使用問答系統(tǒng)來驗證源內(nèi)容和生成內(nèi)容之間的信息一致性。

  • 不確定度估計:測量模型對其生成輸出的置信度來評估忠實性。

  • 提示度量:讓大模型作為評估者,通過特定的提示策略來評估生成內(nèi)容的忠實性。

了解了如何度量幻覺后,就是減輕幻覺的方法了。

對癥下藥減輕幻覺

研究人員根據(jù)致幻原因,詳細總結(jié)了現(xiàn)有減輕幻覺現(xiàn)象的研究。

1、數(shù)據(jù)相關(guān)的幻覺。

減少錯誤信息和偏見,最直觀的方法是收集高質(zhì)量的事實數(shù)據(jù),并進行數(shù)據(jù)清理以消除偏見。

對于知識邊界的問題,有兩種流行方法。一種是知識編輯,直接編輯模型參數(shù)彌合知識差距。另一種通過檢索增強生成(RAG)利用非參數(shù)知識源。

檢索增強具體分為三種類型:一次性檢索、迭代檢索和事后檢索。

一次性檢索是將從單次檢索中獲得的外部知識直接預(yù)置到大模型的提示中;迭代檢索允許在整個生成過程中不斷收集知識;事后檢索是基于檢索的修訂來完善大模型輸出。

2、訓(xùn)練相關(guān)的幻覺。

根據(jù)致幻原因,可以完善有缺陷的模型架構(gòu),目前已有許多相關(guān)研究。

從模型預(yù)訓(xùn)練階段來講,最新進展試圖通過完善預(yù)訓(xùn)練策略、確保更豐富的上下文理解和規(guī)避偏見來應(yīng)對這一問題。

比如針對模型對文檔式的非結(jié)構(gòu)化事實知識理解碎片化、不關(guān)聯(lián),有研究在文檔的每個句子后附加一個TOPICPREFIX,將它們轉(zhuǎn)換為獨立的事實,從而增強模型對事實關(guān)聯(lián)的理解。

此外,還可以通過改進人類偏好判斷、激活引導(dǎo),減輕對齊錯位問題。

3、推理相關(guān)的幻覺。

不完美的解碼通常會導(dǎo)致模型輸出偏離原始上下文。

研究人員探討了兩種高級策略,一種是事實增強解碼,另一種是譯后編輯解碼。

此外,忠實度增強解碼優(yōu)先考慮與用戶說明或提供的上下文保持一致,并強調(diào)增強生成內(nèi)容的一致性?,F(xiàn)有工作可以總結(jié)為兩類,包括上下文一致性和邏輯一致性。

有關(guān)上下文一致性的最新研究之一是上下文感知解碼(CAD),通過減少對先驗知識的依賴來修改輸出分布,從而促進模型對上下文信息的關(guān)注。

有關(guān)邏輯一致性的最新一項研究包括知識蒸餾框架,用來增強思維鏈提示中固有的自洽性。

論文鏈接:
https://arxiv.org/abs/2311.05232

— 完 —

量子位 QbitAI · 頭條號簽約

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
大模型總弄錯「事實」怎么辦?這有一份匯聚了300多篇文獻的綜述
解讀大模型(LLM)的token
最強LLaMA突然來襲!只改一個超參數(shù),實現(xiàn)上下文3.2萬token,多個任務(wù)打敗ChatGPT、Claude 2
一位AI Agent創(chuàng)業(yè)者,看完 OpenAI DevDay 的感想
真·量子速讀:突破GPT-4一次只能理解50頁文本限制,新研究擴展到百萬token
***什么是大模型參數(shù)
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服