在用V3和R1模型橫掃硅谷、引爆全球科技圈后,DeepSeek在除夕這天繼續(xù)放大招。
1月28日凌晨,人工智能社區(qū)Hugging Face顯示,DeepSeek發(fā)布了開(kāi)源多模態(tài)模型Janus-Pro,擁有10億和70億參數(shù)規(guī)模,相比此前的語(yǔ)言和推理模型,本次發(fā)布的新模型重點(diǎn)在于文生圖能力方面。
根據(jù)DeepSeek的技術(shù)文檔,這個(gè)模型既能讓AI讀圖,又能讓AI生圖。在文生圖GenEval和DPG-Bench基準(zhǔn)測(cè)試中,Janus-Pro-7B的準(zhǔn)確率較前代Janus大幅提高,準(zhǔn)確率測(cè)試結(jié)果分別為80%和84.2%,高于包括OpenAI DALL-E 3、Stable Diffusion在內(nèi)的其他對(duì)比模型。
“他們真的想成為下一個(gè) Grok(they really trying to be the next grok)?!贬槍?duì)DeepSeek的最新發(fā)布,有海外網(wǎng)友表示。此前由馬斯克創(chuàng)立的xAI發(fā)布了名為Grok的一系列模型和應(yīng)用,此舉被視為對(duì)OpenAI等行業(yè)巨頭的直接挑戰(zhàn)。
DeepSeek的AI生圖和讀圖能力如何?
在外網(wǎng),有網(wǎng)友測(cè)試了讀圖能力,表示Janus-Pro-7B的高精度讀圖能力很優(yōu)秀,其發(fā)布的截圖顯示,在多行復(fù)雜數(shù)學(xué)表達(dá)式混合排版的圖片轉(zhuǎn)Latex代碼,以及手繪風(fēng)格時(shí)序圖圖片轉(zhuǎn)mermaid代碼的測(cè)試中,都是通過(guò)一句話Prompt實(shí)現(xiàn)了讀圖。
上述網(wǎng)友表示,雖然在邏輯性更強(qiáng)的時(shí)序圖代碼上模型沒(méi)能一比一復(fù)刻原圖,有一些錯(cuò)誤,但基于經(jīng)驗(yàn)判斷,通過(guò)稍微的提示調(diào)整或者配合類(lèi)R1級(jí)別的模型就能解決。
在文生圖能力方面,有網(wǎng)友也第一時(shí)間進(jìn)行了測(cè)試,從畫(huà)面美學(xué)和指令跟隨上看Janus-Pro接近目前的頭部模型水平。
根據(jù)技術(shù)文檔,在文本到圖像指令跟蹤排行榜 GenEval中,Janus-Pro-7B 得分為 0.80,優(yōu)于 Janus (0.61)、DALL-E 3 (0.67) 和 Stable Diffusion 3 Medium(0.74)。另外,Janus-Pro 在 DPG-Bench 上獲得了 84.19 的分?jǐn)?shù),超過(guò)了所有其他方法。這表明 Janus-Pro 擅長(zhǎng)遵循密集的指令來(lái)生成文本到圖像。
DeepSeek也對(duì)外展示了一些文生圖的案例,在畫(huà)面質(zhì)量上表現(xiàn)優(yōu)秀。
DeepSeek的熱度還在持續(xù)。1月27日,DeepSeek應(yīng)用登頂蘋(píng)果中國(guó)地區(qū)和美國(guó)地區(qū)應(yīng)用商店免費(fèi)APP下載排行榜,在美區(qū)下載榜上超越了ChatGPT。這一紀(jì)錄持續(xù)到1月28日,截至記者發(fā)稿,DeepSeek仍霸榜中美蘋(píng)果應(yīng)用商店排行榜,維持在免費(fèi)榜第一的位置。
自去年底至今年初,DeepSeek接連發(fā)布重磅產(chǎn)品,關(guān)注度持續(xù)累積。
DeepSeek出圈是在12月26日,彼時(shí)官方宣布全新系列模型DeepSeek-V3上線并同步開(kāi)源,隨后就刷屏了海外社交媒體平臺(tái)X,全球科技圈驚嘆的點(diǎn)在于,這一模型能力對(duì)標(biāo)頭部模型,但訓(xùn)練的預(yù)算卻非常低,“2048個(gè)GPU、2個(gè)月、近600萬(wàn)美元”,相比之下,GPT-4o等模型的訓(xùn)練成本約為1億美元,至少在萬(wàn)個(gè)GPU量級(jí)的計(jì)算集群上訓(xùn)練。
當(dāng)時(shí),Chatbot Arena數(shù)據(jù)顯示,DeepSeek-V3在所有模型中排名第七,在開(kāi)源模型中排第一,是全球前十中性?xún)r(jià)比最高的模型。
“Llama 3 405B 使用了3080萬(wàn)GPU小時(shí),而DeepSeek-V3 看起來(lái)是一個(gè)更強(qiáng)大的模型,僅使用了280萬(wàn)GPU 小時(shí)(計(jì)算量約為十分之一)。”前Open AI 聯(lián)合創(chuàng)始人、Tesla AI 團(tuán)隊(duì)負(fù)責(zé)人Andrej Karpathy在X上發(fā)文表示,如果該模型的優(yōu)良表現(xiàn)能夠得到廣泛驗(yàn)證,這一模型將是在資源受限的情況下,在研究和工程方面讓人印象深刻的一次展示。
就在1月20日,DeepSeek又正式開(kāi)源其推理模型R1。1月24日,DeepSeek-R1在Chatbot Arena綜合榜單上排名第三,與OpenAI的頂尖推理模型o1并列。在高難度提示詞、代碼和數(shù)學(xué)等技術(shù)性極強(qiáng)的領(lǐng)域,DeepSeek-R1拔得頭籌;在風(fēng)格控制以及高難度提示詞與風(fēng)格控制結(jié)合的測(cè)試中,DeepSeek-R1均與o1 并列第一。
DeepSeek以“低成本訓(xùn)練”和“高性?xún)r(jià)比”為核心賣(mài)點(diǎn),其API輸入價(jià)格僅為每百萬(wàn)Token 0.1元人民幣,遠(yuǎn)低于目前行業(yè)的頭部模型,例如Claude 3.5 Sonnet為3美元/百萬(wàn)Token,這種低成本訓(xùn)練策略也讓該公司有了“AI界拼多多”的稱(chēng)號(hào)。
市場(chǎng)認(rèn)為,DeepSeek的成功可能削弱了市場(chǎng)對(duì)英偉達(dá)AI芯片需求的預(yù)期,多家券商發(fā)布研報(bào)稱(chēng)AI大模型的應(yīng)用將逐步走向普惠,“低成本+高性能”大模型成為可能,這一趨勢(shì)一度引發(fā)英偉達(dá)等硬件廠商的股價(jià)暴跌。
截至周一收盤(pán),英偉達(dá)收跌16.97%,市值蒸發(fā)近5900億美元,刷新美國(guó)金融史紀(jì)錄。在周一之前,美股個(gè)股歷史最大單日市值蒸發(fā)紀(jì)錄是英偉達(dá)在去年9月創(chuàng)造的2790億美元,再往前是2022年Meta大跌2320億美元。
除此之外,博通公司股價(jià)也下跌超17%,臺(tái)積電跌超13%,軟銀旗下的Arm Holdings跌超10%,AMD跌超6%,阿斯麥跌超5%。
當(dāng)?shù)貢r(shí)間1月27日晚,美國(guó)總統(tǒng)特朗普在佛羅里達(dá)州邁阿密發(fā)表講話,對(duì)中國(guó)人工智能初創(chuàng)公司DeepSeek攪動(dòng)納斯達(dá)克一事表示,DeepSeek的模型高效且經(jīng)濟(jì),其出現(xiàn)是一種積極的發(fā)展,也“給美國(guó)相關(guān)產(chǎn)業(yè)敲響了警鐘”,美國(guó)“需要集中精力贏得競(jìng)爭(zhēng)”。
(本文來(lái)自第一財(cái)經(jīng))
聯(lián)系客服