国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
從大模型走向小模型,誰將是ChatGPT布局to B行業(yè)的大贏家?

ChatGPT淘金熱

當前,爆發(fā)了ChatGPT熱潮,吸引眾多科技企業(yè)陸續(xù)加入其中。這與當年美國西部加利福尼亞的淘金熱何其相似。

歷史總會驚人的相似,ChatGPT聊天機器人好比一座數(shù)字化時代的金礦。全世界科技淘金人蜂擁而至,從潮起到潮落,潮水退去之時,能生存下來的可能不是淘金人,而是賣鏟子、賣牛仔褲等提供淘金基礎工具的那批人。

站在ChatGPT的行業(yè)風口,除了超大模型的演進發(fā)展,還將誕生更多的小模型專注服務垂直領域,普惠千家萬戶,將是必然趨勢之一。從大模型走向小模型,誰將是未來的大贏家?帶著這個問題,我們不妨先來捋一捋ChatGPT背后的算力和經(jīng)濟賬。

01

「似乎不止于此」

ChatGPT帶動了服務器與GPU增長

事實上,在業(yè)內(nèi)風生水起,ChatGPT帶動了不只是互聯(lián)網(wǎng)、IT、云計算等科技公司發(fā)展的新概念,而且可以看到當前聊天機器人也激發(fā)了服務器與GPU的市場增長,畢竟并行計算架構的GPU更適合大規(guī)模AI訓練與推理。眼下國內(nèi)可見的是,服務器領域的浪潮信息、中科曙光、新華三、長城等也從中受益。

似乎不止于此,一位云計算行業(yè)的專業(yè)人士分析指出,ChatGPT進而帶動了Cloud Financial Management云財務管理的發(fā)展,也就是現(xiàn)在業(yè)內(nèi)熱聊的FinOps,這是“Finance”和“DevOps”的綜合體,強調(diào)運維過程中的成本管理和資源優(yōu)化。但FinOps要實現(xiàn)更智能的目的,也需要背后算力的強大支撐。

業(yè)內(nèi)人士笑言,什么是人工智能?顧名思義,有多少人工就有多少智能。智能不是憑空誕生,需要憑借深度學習算法對大數(shù)據(jù)進行“千錘百煉”,而大型語言模型(Large Language Models,LLMs)訓練的過程必須依靠強大算力的支撐。在看到ChatGPT被熱炒的同時,已經(jīng)入局的相關科技公司所耗費算力也在不斷狂飆。

在清楚ChatGPT背后的算力和經(jīng)濟賬之前,需要了解一下大型語言模型(LLMs)是什么?目前業(yè)界對大型語言模型(LLMs)有著明確的定義,憑借深度學習算法進行訓練,通過大量語料庫數(shù)據(jù)來學習文本的概率分布和語法結(jié)構,并自動生成大量與語料庫類似的高質(zhì)量新文本,持續(xù)的訓練可以提高生成質(zhì)量。目前大型語言模型(LLMs)已經(jīng)可以實現(xiàn)如互動問答、文本識別、文本分類、文本生成、代碼生成等應用。但是大型語言模型(LLMs)目前無法識別不真實的語料數(shù)據(jù)。從而在采用正確語料數(shù)據(jù)過程中,也激發(fā)了業(yè)界相關數(shù)據(jù)標準公司的發(fā)展。

涉及LLMs的經(jīng)典模型如BERT、GPT-3、Megatron-Turing NLG、GPT-4等。大型語言模型(LLMs)往往在大數(shù)據(jù)量的大規(guī)模數(shù)據(jù)集上進行訓練,如GPT-3就有約1750億個參數(shù),在570千兆字節(jié)的文本上進行訓練。而發(fā)展到OpenAI在2023年3月最新推出的GPT-4,標志著大型多模態(tài)AI開始崛起,業(yè)內(nèi)之前有人預估GPT-4會擁有超過1萬億個參數(shù)。雖然OpenAI并未公布GPT-4的具體參數(shù),但是據(jù)DeepMind研究發(fā)現(xiàn),GPT-4將比GPT-3略大,達到計算最優(yōu)所需的訓練參數(shù)將有5萬億個。

實際上,十分驚人的大模型訓練,對芯片的浮點計算能力要求超高。當前,ChatGPT采用的就是GPT-3大型語言模型(LLMs)進行訓練,進行一次GPT-3訓練需要總算力消耗約為3640PF-days,相當于每秒計算一千萬億次,需要算將近10年時間。這將意味著需要數(shù)億美元投資數(shù)個大規(guī)模數(shù)據(jù)中心,每個數(shù)據(jù)中心算力達到500P,才能支撐得住。來自DeepMind的分析顯示,為了最小化訓練損失,訓練GPT-4所需FLOP每秒浮點運算次數(shù)將是GPT-3的10-20倍。

從成本上來看,據(jù)Lambda Labs首席科學官Chuan li介紹,參數(shù)有1750億個的GPT-3單次訓練成本預計達到數(shù)百萬美元。對照DeepMind的研究來看,單次訓練GPT-4預估達到千萬級美元的成本。

據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次;據(jù)《Fortune》雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務成本約0.01美元。ChatGPT訓練基于針對GPT-3.5模型進行,基本參數(shù)自然不會比GPT-3模型少。假設單位算力成本固定,ChatGPT單月運營所需算力估算約4874.4PFlop/s-day,單月運營對應成本將達到數(shù)百萬美元。

需要指出的是,為了支撐GPT-3、GPT-3.5、GPT-4的大模型訓練,OpenAI采用上萬顆英偉達高端A100 GPU打造了一臺特別的超級計算機,其基礎設施成本就高達數(shù)億美元。

像這樣稍微算一算ChatGPT背后所需算力與經(jīng)濟賬,巨頭玩家“井噴式”投入令人無不驚訝?,F(xiàn)在看來,ChatGPT基于大型語言模型(LLMs)訓練和推理的前期發(fā)展,恐怕只能由少數(shù)幾個全球科技巨頭玩家所主導了。

然而,無論是針對ChatGPT進行怎樣的訓練,任何“淘金”入局者必然都有一個相同的剛需,希望支撐訓練平臺的GPU算力的效率更高成本更低,這關乎著任何一家入局者的前期投入與研究回報。

那么,誰來為ChatGPT“淘金”入局者提供更好的GPU加持工具呢?值得深思。

02

「從巨頭玩家到垂直行業(yè)應用」

未來模型變小才能更有機會

但是,面向垂直行業(yè)“淘金”,這樣的ChatGPT主流玩家應該不是目前在ChatGPT上投入巨資的微軟、谷歌等科技大佬,畢竟他們熱衷的還是搜索引擎等大應用的大模型訓練。當然,國內(nèi)也有百度、騰訊、阿里、字節(jié)跳動、京東、360、科大訊飛等知名科技企業(yè)相繼參與了進來,但這些科技公司更多聚焦在自身現(xiàn)有業(yè)務體系上做ChatGPT加持,開始熱心ChatGPT垂直行業(yè)布局的還是比較少。

可見,專注ChatGPT垂直行業(yè)發(fā)展的主角,應當還是那些擁有強大集成能力的軟件開發(fā)商。

“下一步,一旦ChatGPT聚焦在垂直行業(yè)領域發(fā)展,走向千行百業(yè)應用,必然會趨使模型變小?!壁厔涌萍迹╒irtAI Tech)CEO王鯤與業(yè)內(nèi)不少專家持有同樣的觀點。

更進一步分析來看,ChatGPT的“行業(yè)化”才可能更好地實現(xiàn)商業(yè)化?;蛟S有人也會有疑問:ChatGPT走向垂直行業(yè)領域,為什么會趨使大模型小型化?從大模型到小模型,其中有四大影響,對ChatGPT行業(yè)普及十分有利。

一是,降低訓練門檻,降低高算力高投入,讓更多公司可以參與進來。如前文所述,對于GPT-3、GPT-3.5、GPT-4等大模型訓練,必須有著超乎常態(tài)的強大算力支撐,以及巨大的成本投入,這對于垂直行業(yè)企業(yè)想要借助ChatGPT聊天機器人技術做應用創(chuàng)新帶來很大的挑戰(zhàn)。唯有降低門檻,才有可能實現(xiàn)后續(xù)的ChatGPT行業(yè)化的普及。

二是,聚焦專業(yè)領域,利于提高數(shù)據(jù)集質(zhì)量,加速ChatGPT訓練品質(zhì)。在數(shù)據(jù)標注正確的前提下,高質(zhì)量數(shù)據(jù)集決定聊天機器人品質(zhì),數(shù)據(jù)集越大ChatGPT訓練的準確度越高。據(jù)OpenAI表示,最新發(fā)布的新一代多模態(tài)模型GPT-4比GPT-3.5參數(shù)更多、數(shù)據(jù)集更大,在安全性和精確性上實現(xiàn)巨大的提升,在受限制請求做出回應的可能性上,低82%;在編造內(nèi)容的可能性上,低60%。

像微軟與谷歌等科技巨頭,想要做需要全行業(yè)聊天機器人,必然就得立足超大規(guī)模、覆蓋所有領域的數(shù)據(jù)集進行訓練,為了能保障數(shù)據(jù)的質(zhì)量,又必須通過清洗與標準來強化數(shù)據(jù)的真實性、準確性、完整性與時效性。為此,做好數(shù)據(jù)標注也成為實現(xiàn)更好訓練結(jié)果的關鍵一環(huán),據(jù)美國《時代周刊》資料顯示,針對ChatGPT,OpenAI與外包公司合作雇傭了大量人員做數(shù)據(jù)標注服務。即便已經(jīng)擁有了大規(guī)模的數(shù)據(jù)集,但要滿足細分行業(yè)的更多需求,ChatGPT目前可以實現(xiàn)的效果還是鞭長莫及。

一旦推動ChatGPT進入垂直化細分行業(yè)如醫(yī)療、銀行、證券、交通等,聚焦某個垂直行業(yè)的數(shù)據(jù)集相對全行業(yè)全社會而言要小得多。小而精,小而專。行業(yè)越是聚焦,越是利于提高數(shù)據(jù)集質(zhì)量,實現(xiàn)ChatGPT訓練品質(zhì)的飛躍提升。

三是,更容易將ChatGPT與垂直行業(yè)需求結(jié)合,發(fā)揮出行業(yè)應用價值。植根不同行業(yè)的應用需求,構建比較獨立、邏輯清晰、數(shù)據(jù)準確的行業(yè)語料數(shù)據(jù)庫,促進ChatGPT訓練獲得更好結(jié)果。更準確的ChatGPT訓練,也會更快融入到垂直行業(yè)。垂直行業(yè)小模型、專業(yè)領域數(shù)據(jù)集縮小了企業(yè)的訓練范圍與強度,降低整體訓練成本,從而帶動ChatGPT走向to B企業(yè)級化。到那時才是ChatGPT的商業(yè)化發(fā)展階段,從而帶來百家爭鳴的產(chǎn)業(yè)ChatGPT。

四是,促進ChatGPT云化,打造云端ChatGPT模型與工具集,公有云廣泛的創(chuàng)新通路將加速ChatGPT普及。比如亞馬遜云科技正在攜手相關技術公司Hugging Face打造類似ChatGPT模型的Bloom,同時也與Stability AI合作構建類似OpenAI旗下Dall-E的圖像工具,這些模型與工具都將會基于公有云發(fā)布。

當然,針對OpenAI公司有著數(shù)億美元投資的微軟,在其Azure公有云服務平臺上率先推出了OpenAI服務,隨后又將ChatGPT技術擴展到Power Platform上,助力開發(fā)者實現(xiàn)低代碼或無代碼開發(fā)。諸如此類,后續(xù)將會有更多公有云廠商將ChatGPT與公有云結(jié)合,或者有更多類似ChatGPT的軟件開發(fā)商與公有云合作,加速聊天機器人相關技術云化的進程,也將進一步擴展ChatGPT的普及度。這樣不僅可以影響C端個人用戶,也可以影響B(tài)端企業(yè)用戶,并為ChatGPT應用優(yōu)化帶來敏捷的有效途徑。

誠然,從少數(shù)巨頭玩家到更多的垂直行業(yè),未來ChatGPT相關模型變小才符合行業(yè)發(fā)展的客觀規(guī)律。不過,在王鯤看來,任何產(chǎn)業(yè)的成長都會經(jīng)歷從make it work到make it perform再到make it cheap三個發(fā)展階段。當前ChatGPT正處于“make it perform”的可用階段,后續(xù)必然會走向好用、用得起的階段,這樣才能讓ChatGPT真正融入到垂直行業(yè),走入“尋常百姓家”。

之所以要強調(diào)“從可用到好用再到用得起”的發(fā)展規(guī)律,因為只有真正實現(xiàn)了ChatGPT的“make it cheap”階段,建立符合行業(yè)應用需求的專業(yè)聊天機器人,大家用得起后才會出現(xiàn)大規(guī)模普及,實現(xiàn)聊天機器人的真正商業(yè)化,從熱衷于“調(diào)戲”ChatGPT到落地行業(yè)應用的商業(yè)化,彰顯其前所未有的行業(yè)價值,讓更多有志于走在ChatGPT淘金路上的企業(yè)獲得成功。

03

「軟件定義AI算力」

GPU池化將ChatGPT送入千行百業(yè)

既然模型的大小與否,從根本上影響到了ChatGPT訓練所需的算力與成本,那么要將ChatGPT送入千行百業(yè),就必須針對GPU算力與成本下足功夫。

在ChatGPT狂飆之前,成立于2019年的趨動科技(VirtAI Tech)就已經(jīng)為業(yè)界帶來了“GPU資源池化”獨創(chuàng)技術,并且在銀行、證券、能源、教育等多個垂直行業(yè)得到了大規(guī)模落地與成功應用,為用戶“降本增效”的需求實現(xiàn)了更高的GPU利用率與更低的應用成本。

或許這就好比一把科技鐵鏟,將成為推動更多ChatGPT入局者進入千行百業(yè)“淘金”的有力工具。

相關數(shù)據(jù)顯示,在算力方面,全球GPU用戶的平均利用率低于15%,據(jù)亞馬遜云科技在AWS re:Invent 上公布的數(shù)據(jù)顯示,其GPU產(chǎn)品平均利用率僅為10~30%。國內(nèi)有不少用戶的利用率甚至不足10%,對這些用戶而言,一顆售價1萬美元的芯片可能其中9000美元就白白浪費了。

面向ChatGPT訓練需要底層AI服務器的強大支撐,效率越高性能越好就越能讓ChatGPT訓練獲得高價值的結(jié)果,其中的關鍵就是要將GPU能力發(fā)揮到極致。在支撐ChatGPT在垂直行業(yè)做模型訓練方面,行業(yè)領域的用戶需要構建更高效的服務器與GPU算力平臺。對于任何一個行業(yè)用戶而言,一旦上馬ChatGPT模型訓練,算力需求必然凸現(xiàn),降低成本提高算力的效率將是必然之選。

縱觀GPU的發(fā)展,在GPU資源利用的演進路線上,可以分為簡單虛擬化、任意虛擬化、遠程調(diào)用和資源池化四個階段。提到GPU池化,往往有人容易想到傳統(tǒng)的GPU虛擬化技術,或者叫GPU切片技術。但是,需要注意的是,傳統(tǒng)的GPU虛擬化技術基于硬件思維,只能對本地物理機上的GPU進行虛擬切割。而GPU資源池化技術基于整個數(shù)據(jù)中心范圍,不僅可以支持本地GPU虛擬化,而且打破單機資源調(diào)度的物理邊界,讓用戶透明使用任意物理機上、任意數(shù)量、任意品牌廠商的GPU資源。作為AI算力資源池化解決方案的創(chuàng)新供應商,趨動科技的OrionX完全支持裸機、虛擬機、容器以及K8S等多種環(huán)境的完整的資源池化。

全球云觀察分析指出,只有站在整個數(shù)據(jù)中心的高度,解決GPU利用率低、成本高、分配與管理難等問題,才能從真正意義上支撐ChatGPT面向垂直行業(yè)各種規(guī)模的數(shù)據(jù)集訓練。

針對用戶的不同采購需求,采取了兩種靈活的商業(yè)模式,一是采取私有部署,類似VMware的軟件授權銷售方式,二是類似Flink基于公有云的服務方式。

對于第一種私有部署的商業(yè)模式,趨動科技聚焦軟件定義AI算力,憑借GPU池化的創(chuàng)新,支撐ChatGPT的行業(yè)模型訓練降本增效,將ChatGPT送入千行百業(yè)成為更大可能。為此,趨動科技在GPU軟件領域的創(chuàng)新目的非常明確,打造GPU屆的“VMware”,走的是標準化的商業(yè)軟件道路。趨動科技賦能客戶構建一個彈性、動態(tài)、靈活、高效的軟件定義GPU算力資源池,根據(jù)用戶具體的硬件與軟件需求,將所有GPU的靜態(tài)分配轉(zhuǎn)換成動態(tài)分配,靈活支持用戶實現(xiàn)GPU利用率最大化,提高利用率3-5倍,助力垂直行業(yè)的ChatGPT訓練實現(xiàn)降本增效。

對于第二種類似Flink基于公有云的服務方式,趨動科技打造的趨動云是趨動科技利用其在算力資源池和開發(fā)訓練平臺領域的深厚積累,面向企業(yè)、科研和個人AI開發(fā)者構建的開發(fā)和推理訓練服務。通過連接全球算力,趨動云可以為用戶提供低成本、高按需保障、無廠商鎖定的AI算力;通過為AI算法開發(fā)全流程提供優(yōu)化服務,并構建全球開發(fā)者和項目資源分享社區(qū),趨動云可以幫助AI開發(fā)者快速實現(xiàn)最佳實踐。相關測試表明,采用同樣模型訓練,達到相同精度,目前采用算力池化的趨動云,比公有云成本低60%。

到目前為止,趨動云上線5個月左右,已經(jīng)獲得近萬名注冊用戶,活躍用戶數(shù)千人,活躍用戶大部分來自全球高校AI相關專業(yè)老師與學生、有AI算法團隊的中小企業(yè)和個人開發(fā)愛好者。目前前期主要構件AI開發(fā)者生態(tài),培養(yǎng)GPU池化模式的未來用戶基礎。趨動云面向AI開發(fā)者實行“拎包入住”方式,并且開放大量數(shù)據(jù)集與源代碼集,也已經(jīng)上線眾多模型,做了大量適合AI開發(fā)者的“剛需配套”,并且數(shù)據(jù)集在未來將進一步得到擴展。

此外,業(yè)內(nèi)也有人說過,AI的盡頭就是算力,就是GPU。從摩爾定律在計算芯片領域依然維持,很大原因是因為GPU迅速崛起,彌補了CPU發(fā)展的趨緩。目前GPU的晶體管數(shù)量增長已超過CPU,CPU晶體管開始落后于摩爾定律。這是一個數(shù)據(jù)智能的時代,也將是擅長浮點運算的GPU大放異彩的時代。

長風破浪會有時,直掛云帆濟滄海。對于有用戶實踐、有技術積累、有行業(yè)理想的趨動科技而言,面對難得一遇的大好機會,大力支持ChatGPT等人工智能技術實現(xiàn)更多行業(yè)應用,加強發(fā)展GPU領域的相關技術創(chuàng)新,抓住前所未有的發(fā)展機遇,繼續(xù)打磨ChatGPT垂直行業(yè)“淘金”的有力工具,進一步豐富AI算力資源池化解決方案,必將在中國行業(yè)數(shù)字化發(fā)展之路上贏得屬于自己的未來。

機不可失,時不再來。站在ChatGPT的行業(yè)風口,趨動科技正迎風而上。

(by Aming)

- END-

?

歡迎文末評論補充!

【全球云儲觀察 | 阿明觀察 |科技明說】專注科技公司分析,用數(shù)據(jù)說話,帶你看懂科技。本文和作者回復僅代表個人觀點,不構成任何投資建議。

本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
干貨 | 趙亞雄:大模型、AI經(jīng)濟和AI基礎設施
0209板塊邏輯深度復盤及明日策略
這是Meta版ChatGPT雛形?開源、一塊GPU就能跑,1/10參數(shù)量打敗GPT-3
僅隔四個月,馬斯克官宣Grok,網(wǎng)友:這個AI聊天機器人和它老板一樣,叛逆且幽默!
垂直大模型競爭,能突破數(shù)據(jù)“卡點”嗎?
對話未盡研究周健工:通用AI將推動中國垂直模型應用,訂閱制模式將更普遍
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服