最近一周,AI領(lǐng)域真的是瘋狂。
GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API、百度文心一言等等,這些AI產(chǎn)品像一顆顆的炸彈,扎堆在這周引爆。
而近日,還有機(jī)構(gòu)預(yù)測稱,這種AI的推出,未來或影響全美國80%的工作崗位,那么放大到全球來看,會影響多少?
而在這場AI大亂斗之下,誰是最后贏家可能還無法預(yù)測,但目前,已經(jīng)有一個大贏家誕生了,那就是GPU芯片廠商N(yùn)vidia。
AI的背后其實是算力,特別是GPU芯片,之前OpenAI已公布過具體的信息,在訓(xùn)練上一代的GPT-3時,使用了數(shù)千個NVIDIA V100 GPU。
而調(diào)研機(jī)構(gòu)TrendForce的數(shù)據(jù),顯示GPT-3訓(xùn)練時大概用到了20000個NVIDIA A100 GPU左右的算力,而ChatGPT商業(yè)化后所需的GPU數(shù)量將達(dá)到30000個以上。
之后隨著模型的不斷升級,需要用到的GPU芯片會越來越多,呈倍數(shù)增長,那么Nvidia的GPU顯卡會越賣越多。
不只是OpenAI,像谷歌、微軟等等推出的AI產(chǎn)品,均需要GPU芯片啊,這是一筆多大的生意?
而為了更好的服務(wù)于AI,Nvidia發(fā)布了全新的GPU推理平臺,該平臺包括4種不同配置,L4 Tensor Core GPU、L40 GPU、H100 NVL GPU和Grace Hopper超級芯片。分別對應(yīng)了AI視頻加速、圖像生成加速、大型語言模型(LLM)加速和推薦系統(tǒng)和LLM數(shù)據(jù)庫。
拿專門為LLM設(shè)計的GPU--H100 NVL來說,Nvidia表示相比于英偉達(dá)HGX A100,一臺搭載四對H100和雙NVLINK的標(biāo)準(zhǔn)服務(wù)器速度能快10倍。
而L4 Tensor Core GPU,是AI生成視頻的通用GPU,Nvidia表示,使用它可以提供比CPU高120倍的性能……
事實上,反映在資本市場,Nvidia也確實贏麻了,2023年以來,還不到3個月,nvidia的股價已經(jīng)漲了80%左右,市值漲了近3000億美元,相當(dāng)于2萬億元人民幣。
不管最后是誰家的AI勝出,誰家的AI倒下,與Nvidia都關(guān)系不大,反正Nvidia的GPU顯卡,已經(jīng)立于不敗之地,出貨量已經(jīng)節(jié)節(jié)攀升了。