国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
一份來自Huggingface的大模型進化指南:沒有必要完全復現(xiàn)GPT-4
userphoto

2023.07.04 浙江

關注

大數(shù)據(jù)文摘出品

ChatGPT爆火之后,AI界進行了一場“百模大戰(zhàn)”。近日,Huggingface的機器學習科學家Nathan Lambert,在一篇博文中對當前入局大模型的力量,從開源視角進行了梳理,并提出了很多深刻的見解。

What this looks like is instead of taking the giant scorecard that GPT4 was touted on, you take 10-50% as the targets for an open-source model and beat GPT4。

開源的模型不要試圖在所有方面都超越GPT4,而只專注于在部分領域(占總指標的10-50%)取得優(yōu)勢。

至于原因,他提到語言模型在推理能力、預測能力、控制程度等方面具有很大的多樣性,僅僅“瞄準”復現(xiàn)ChatGPT可能只是一種氛圍目標,并不必要。
此外,他還提到OpenAI的成功有運氣成分,這可能是開源社區(qū)無法實現(xiàn)的。
以下是中文翻譯,文摘菌做了不改變原意的修改。
ChatGPT沒出來之前,大家一直以為語言模型只是學者們的研究項目,即易用性和成本擴展非常粗糙,表現(xiàn)為模型難以上手、難以部署。ChatGPT發(fā)布之后,突然,大家期望正在實驗室“待著”的語言模型,都能和ChatGPT一樣出色。實際上,這種期望并不現(xiàn)實,語言模型在推理能力、預測能力、控制程度等方面具有很大的多樣性,而我們正處在初步探索階段。因此,重現(xiàn)ChatGPT更像是一種“氛圍”目標,并不必要。
接下來,開源社區(qū)可能針對特定需求開發(fā)具有更多特定功能的大型語言模型(LLM),但這些模型在總體能力上可能不如GPT4。開源的模型不會試圖在所有方面都超越GPT4,而只專注于在部分領域(占總指標的10-50%)取得優(yōu)勢。在其他指標上,開源模型可能更落后,而非與GPT4持平。差異表現(xiàn)在以下幾個方面:
不同的模型和數(shù)據(jù)起點:在ChatGPT成為熱門話題時,GPT-3 還沒有開源。如今,數(shù)據(jù)標準已經(jīng)提高了很多,同時還有RLHF(從人類反饋中強化學習),一個已經(jīng)證實存在的技術實現(xiàn)。
在基礎模型的開發(fā)過程中,關鍵在于使用數(shù)據(jù)和基礎設施創(chuàng)建較小的基礎模型,然后微調(diào)參數(shù),以便在某個小領域中提高性能。然后,進行最終大模型的訓練。顯然,目前的模型和基礎設施正在引領一系列與幾年前 OpenAI 不同的實驗路徑。
不同的數(shù)據(jù)集和評估:目前許多開源項目的進展取決于GPT4對模型的評估。然而,顯然OpenAI在制定內(nèi)部決策時,并沒有根據(jù)其正在開發(fā)的語言模型的實際運行情況來進行評估,因此就有了不同的評估方法和風格。也得益于不同的數(shù)據(jù)集和評估方法,開源團隊能夠更快地收到關于他們模型的反饋,減少了模型完成到發(fā)布之間的等待時間。
不同的團隊:據(jù)說OpenAI和Google的團隊結構非常模塊化,各個小團隊負責模型的某個部分。這導致GPT模型的歷史發(fā)展沿著一條非常狹窄的路徑,每個團隊不斷迭代和優(yōu)化他們負責的部分。相反,在開源領域,許多小團隊在嘗試和復制各種不同的想法,使得辨別“哪些方法是可靠且有效的,哪些方法只是僥幸成功”更加容易。說實話,OpenAI的成功有運氣成分,這可能是開源社區(qū)無法實現(xiàn)的。
因此,在上述觀點下,基礎模型的稀缺可能會為開源社區(qū)創(chuàng)造更多的創(chuàng)新空間,而企業(yè)則可能會通過持續(xù)優(yōu)化現(xiàn)有模型來取得穩(wěn)定的進步。顯然,LLaMA項目的發(fā)展路徑中,已經(jīng)驗證了這一趨勢。
圖注:大語言模型的演化樹:同一分支上的模型具有較為緊密的關系。基于Transformer的模型以非灰色顯示:藍色分支中的僅解碼器模型,粉色分支中的僅編碼器模型,以及綠色分支中的編碼器-解碼器模型。模型在時間線上的垂直位置表示它們的發(fā)布日期。開源模型由實心正方形表示,而閉源模型由空心正方形表示。右下角的堆疊條形圖顯示了來自各個公司和機構的模型數(shù)量。
盡管我們希望重現(xiàn)ChatGPT這樣的模型,但應該接受差距。即使在計算能力方面投入數(shù)千萬美元的公司,實際獲得的計算能力(如AWS GPU或TPU),其訓練吞吐量也可能有2-4倍的差異。
OpenAI和Google已經(jīng)解決了這些問題。因為它們在整個技術棧的每個環(huán)節(jié)進行優(yōu)化時會產(chǎn)生極大的協(xié)同效應。也正是這種協(xié)同效應的存在,我們無法短時間內(nèi)達到OpenAI和Google等大公司的技術水平。
在當前的大環(huán)境下,有幾個不同類型的參與者將在接下來的幾個月里影響大型語言模型發(fā)展方向的競爭。我們現(xiàn)在正處于一個資源豐富的時代,所以這些參與者如何看待成功,實際上取決于它們與行業(yè)內(nèi)其他參與者之間的相對差距。在這些參與者之間最有趣的對比是:a) 它們?nèi)绾斡柧毮P?,b) 它們?nèi)绾问褂眠@些模型,c) 誰在使用這些模型。
一、垂直領域的科技公司:也即大語言模型運動的先驅(qū)者,如OpenAI等,他們自己訓練模型并使用這些成果。但除了文本輸出之外,好像其他所有事情都“秘而不宣”。這是相對單調(diào)、缺乏創(chuàng)新的發(fā)展路徑。
二、橫向大科技公司:這些公司將模型用于內(nèi)部服務,但推理過程可以在分布式環(huán)境中進行,例如用戶在邊緣設備中生成視頻。這些公司希望開源模式得到廣泛傳播,并將流行系統(tǒng)的優(yōu)化整合到他們的生態(tài)系統(tǒng)中。我預計,Meta公司會繼續(xù)開放機器學習模型,但是由于他們在信息傳播方面的限制,他們的迭代速度將不如完全開放的開源項目。
三、開源力量:許多人參與訓練模型,而且更多的人在各種商業(yè)和非商業(yè)任務中使用這些模型。由于更新頻率更高(發(fā)展速度快,有更多獨立的團隊參與其中),開源領域很可能會繼續(xù)成為大語言模型發(fā)展的核心推動力。
四、學術界:在學術領域,研究人員可能會集中精力開發(fā)新方法,以便從較少的資源中獲得更多成果或提高性能上限。
在最后三個群體(橫向大型科技公司、開源領域和學術界)中,它們會在彼此之間分享和整合技術成果,這使得發(fā)展路徑在初始階段看起來相互交織。
當然,有些公司在這些分類之間存在交叉或模糊地帶,這類公司往往同時展示出上述不同群體的特點。
在討論諸如Vicuna和Koala等具有學術性且取得重大進步的項目之前,我們應該認識到這些成果更多地是由快速變化的環(huán)境帶來的,而不僅僅是核心學術界的持續(xù)貢獻。絕大多數(shù)學者將致力于展示最新的人類反饋或微調(diào)技術等方面的成果,而不是定期發(fā)布頂級模型。
文摘菌注:Vicuna和Koala都是基于LLaMA模型的開源大模型。
目前,我們正處于開放模型從指令微調(diào)(IFT)過渡到完全基于人類反饋的強化學習(RLHF)的階段。顯然,未來,并非所有成功應用RLHF的組織都能發(fā)布具有強大指令/聊天調(diào)優(yōu)能力的模型。
說實話,在當前階段,我對目前的學術界有些看不清。大語言模型作為產(chǎn)品階段之前,人工智能研究的發(fā)展相對穩(wěn)定。
有傳言稱,在ChatGPT問世之前,自然語言處理(NLP)研究已經(jīng)逐漸式微,只剩下針對GPT-3的微調(diào)工作。目前對大語言模型的關注和研究熱潮并不是全新的現(xiàn)象,這種狂熱只是加速了自然語言處理(NLP)研究逐漸聚焦于大語言模型微調(diào)等領域的過程。
大語言模型成為研究熱點之后,學術界與產(chǎn)業(yè)界的合作研究可能仍然延續(xù)之前的方式。然而,對于那些沒有參與到這些特殊合作關系中的研究人員(他們實際上占據(jù)了大多數(shù)),可能會選擇采用不同的研究方法。
換句話說,獨立學術研究者的工作很可能在很大程度上預示了該領域發(fā)展的趨勢。
盡管學術體系存在諸多缺陷,但它確實會定期產(chǎn)生洞見?,F(xiàn)在,隨著該領域在工業(yè)和開源競爭方面的增長,人們將開始探索如何開展除了微調(diào)OpenAI API之外的大語言模型研究。然而,新的研究激勵措施(如大量用于LLM研究的AI安全資金)需要一定時間才能見效。
復現(xiàn)降低熱潮
我一直在嘗試尋找支持開源語言模型和研究的更多理由,而不僅僅停留在“我們一直都是這樣做的”和“問責制”這兩個方面,因為企業(yè)總是會很快對這兩點妥協(xié)。
我很想進行的反事實分析是:發(fā)布ChatGPT和GPT-4以及完整的技術論文,是否能消解目前社會中普遍存在的炒作現(xiàn)象?當過程變得不透明時,企業(yè)和意見領袖更容易操控基于情感而非現(xiàn)實的傳播趨勢。
開放和復現(xiàn)目前已經(jīng)成為越來越罕見的話題,我希望有更多的團隊愿意公開分享大語言模型的進展,這樣我們社會的交流就能更加實事求是。
via
https://www.interconnects.ai/p/llm-development-paths
本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
2萬字長文:關于ChatGPT的五個最核心問題
ChatGPT是什么?
科普新知 | 三分鐘了解ChatGPT
華泰 | 計算機: ChatGPT深度拆解
深入聊一聊chatGPT模型原理(無公式)
阿里贏了,人類卻一敗涂地:中文「考試」也輸給了AI
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服