麻豆国内精品欧美在线-麻豆国内精品久久久久久-麻豆国产在线观看一区二区-麻豆国产在线观看免费-麻豆国产原创-麻豆国产一区二区在线观看

爆火的DeepSeek引發(fā)成本、技術(shù)質(zhì)疑,未來算力還重要嗎?快訊

TechWeb.com.cn 2025-02-10 13:32
分享到:
導讀

利用OpenAI專有模型來訓練其AI大模型,DeepSeek論文中提到的600萬美元成本僅指預訓練運行的GPU成本,DeepSeek-V3極低的訓練成本預示著AI大模型對算力投入的需求將大幅下降。

TechWeb文/卞海川

近期,DeepSeek在AI大模型領(lǐng)域引發(fā)熱議,憑借其驚人的性能表現(xiàn)和低成本訓練模式,迅速吸引了全球關(guān)注,且熱度一直不減。但隨之而來的,對其成本、技術(shù)以及為未來作為大模型基礎(chǔ)設施的算力也引發(fā)了爭議。

DeepSeek陷成本誤區(qū)?

提及成本,DeepSeek發(fā)表的原始報告中有詳細解釋這筆成本的計算:“在預訓練階段,每兆個token上訓練DeepSeek-V3僅需要180K H800 GPU小時,也就是說,在我們擁有2048個H800 GPU的叢集上需要3.7天。因此,我們的預訓練階段在不到兩個月的時間內(nèi)完成,耗費2664K GPU小時。加上上下文長度擴充所需的119K GPU小時和后制訓練所需的5K GPU小時,DeepSeek-V3的完整訓練僅需2.788M GPU小時。假設H800 GPU的租賃價格為每GPU小時2美元,我們的總訓練成本僅為557.6萬美元。”

對此,近日知名的SemiAnalysis公開發(fā)布的《DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts》的報告中稱:DeepSeek論文中提到的600萬美元成本僅指預訓練運行的GPU成本,這只是模型總成本的一小部分,他們在硬件上的花費遠高于5億美元。例如為了開發(fā)新的架構(gòu)創(chuàng)新,在模型開發(fā)過程中,需要投入大量資金來測試新想法、新架構(gòu)思路,并進行消融實驗。開發(fā)和實現(xiàn)這些想法需要整個團隊投入大量人力和GPU計算時間。例如深度求索的關(guān)鍵創(chuàng)新—多頭潛在注意力機制(Multi-Head Latent Attention),就耗費了數(shù)月時間。

無獨有偶,據(jù)外媒報道,李飛飛等斯坦福大學和華盛頓大學的研究人員以不到50美元的費用,使用了16張英偉達H100 GPU,耗時26分鐘就完成了訓練,成功“打造”出了一個名為s1-32B的人工智能推理模型。

有業(yè)內(nèi)觀點認為,DeepSeek模型低成本并不客觀。

武漢大學計算機學院教授、中國人工智能學會心智計算專委會副主任蔡恒進對TechWeb表示,DeepSeek在生成模型的成本在報告中已經(jīng)寫的很清晰了,過于糾結(jié)前期的投入,有多少實際成本是不重要的,特別是對于國內(nèi)產(chǎn)業(yè)成本很低的情況下,前期做研究的成本也會比美國低很多。

蒸餾業(yè)內(nèi)通行做法,是非公婆各有理

除了上述的成本外,業(yè)內(nèi)對于DeepSeek爭議最大的還有就是其是否使用了蒸餾技術(shù),如果使用,究竟使用了誰家的?

最先提出質(zhì)疑的是,是在DeepSeek R1發(fā)布之初,OpenAI和微軟均向媒體證實,已掌握疑似DeepSeek通過“蒸餾”(distillation)技術(shù),利用OpenAI專有模型來訓練其AI大模型。這使得DeepSeek能夠以較低的成本在特定任務上達到類似的效果。OpenAI雖未進一步提供證據(jù)的細節(jié),但根據(jù)其服務條款,用戶不得“復制”任何OpenAI的服務,或“利用輸出結(jié)果開發(fā)與OpenAI競爭的模型”。

對于DeepSeek爆火之下,馬斯克一直罕見地并未發(fā)表評論,卻在最近點贊了一則推文。推文中提到了DeepSeek大量依賴模型蒸餾技術(shù),需要借助ChatGPT-4o和o1才能完成訓練。盡管模型蒸餾是一項常見的技術(shù)手段,能夠?qū)penAI中的大量數(shù)據(jù)迅速提煉重點并快速理解和應用,但這種模式只能讓DeepSeek接近OpenAI,而難以真正超越OpenAI。

除了國外,國內(nèi)關(guān)于DeepSeek V3曾在測試中出現(xiàn)過異常:該模型自稱是OpenAI的ChatGPT,并能提供OpenAI的API使用說明。專家認為,這很可能是由于訓練數(shù)據(jù)中混入了大量由ChatGPT生成的內(nèi)容(即“蒸餾”數(shù)據(jù)),導致模型發(fā)生了“身份混淆”。

此外,由中國科學院深圳先進技術(shù)研究院、北京大學、01.AI、南方科技大學、Leibowitz AI等多個知名機構(gòu)的研究團隊聯(lián)合發(fā)表的《Distillation Quantification for Large Language Models(大語言模型的蒸餾量化)》論文則顯示DeepSeek V3的蒸餾過程可能主要來自GPT4o,且蒸餾程度較高。

該論文提出了一個系統(tǒng)化的框架,量化并評估大模型蒸餾的過程及其影響,采用了“響應相似性評估(RSE)”和“身份一致性評估(ICE)”兩個量化指標。RSE實驗結(jié)果顯示,DeepSeek V3的蒸餾程度與GPT4o接近,評分為4.102,遠高于其他模型(如Llama 3.1-70B和Doubao-Pro-32k)。在ICE實驗中,DeepSeek V3也顯示出較高的蒸餾程度,屬于可疑響應數(shù)量最多的模型之一。

對于蒸餾技術(shù)的爭議,蔡恒進對TechWeb表示,DeepSeek完全蒸餾GPT的說法是錯誤的,ChatGPT的模型是閉源的,而DeepSeek展示了思考過程,這是抄不出來的。“DeepSeek技術(shù)上是有創(chuàng)新的,過于糾結(jié)蒸餾這方面完全沒有意義。”蔡恒進說道。

蔡恒進認為DeepSeek有著獨特的技術(shù)路徑優(yōu)勢,它可以從底層優(yōu)化,可以繞開英偉達CUDA生態(tài),可以大幅提升國產(chǎn)芯片做預訓練的性能。

打破算力魔咒,未來算力還重要嗎?

基于我們前述成本的優(yōu)勢,有業(yè)內(nèi)觀點認為,DeepSeek的出現(xiàn),打破了英偉達等科技巨頭“堆積算力”的路徑,也就是說,美國AI巨頭們認定的那個靠錢、靠更高算力芯片才能堆出來的更好的模型,不需要那么高昂的門檻了。

蔡恒進對TechWeb表示,原來我們一直認為不斷“堆積算力”才能提高AI模型能力,但Deepseek的出現(xiàn)走出了另一條路,即不一定要提升很高的參數(shù)規(guī)模就能實現(xiàn)很高的性能,可能對算力需求至少降到10倍以上。“堆算力”本身沒有錯,但隨著Deepseek的出現(xiàn)我們會發(fā)現(xiàn)這條路的性價比不高。

DeepSeek-V3極低的訓練成本預示著AI大模型對算力投入的需求將大幅下降,但也有觀點認為,DeepSeek表現(xiàn)固然優(yōu)秀,但其統(tǒng)計口徑只計算了預訓練,數(shù)據(jù)的配比需要做大量的預實驗,合成數(shù)據(jù)的生成和清洗也需要消耗算力。

此外,在訓練上做降本增效不代表算力需求會下降,只代表大廠可以用性價比更高的方式去做模型極限能力的探索。

業(yè)內(nèi)在討論算力時,常引用蒸汽時代的杰文斯悖論來類比。這一悖論由經(jīng)濟學家威廉?斯坦利?杰文斯提出,核心觀點是:當某種資源的使用效率提高、獲取變得更容易時,其總體使用量往往不減反增。以蒸汽機為例,燃油效率的提升降低了單位工作量所需的煤炭成本,反而刺激了更多的工業(yè)活動,導致煤炭的總體消耗量上升。蒸汽機效率的提升,不僅沒有減少對蒸汽機的需求,反而因為技術(shù)的推廣和應用場景的擴大,進一步增加了市場對蒸汽機的需求。DeepSeek 的發(fā)展也呈現(xiàn)出類似的趨勢:算力效率的提升并未減少對算力的需求,反而推動了更多高算力應用的落地,使得行業(yè)對算力的需求持續(xù)增長。

對此,中信證券研報也指出,近日,DeepSeek-V3的正式發(fā)版引起AI業(yè)內(nèi)廣泛高度關(guān)注,其在保證了模型能力的前提下,訓練效率和推理速度大幅提升。DeepSeek新一代模型的發(fā)布意味著AI大模型的應用將逐步走向普惠,助力AI應用廣泛落地;同時訓練效率大幅提升,亦將助力推理算力需求高增。

而Bloomberg Intelligence最近的一篇報告顯示,企業(yè)客戶可能會在2025年進行更大規(guī)模的AI投資,而AI支出增長將更側(cè)重于推理側(cè),以實現(xiàn)投資變現(xiàn)或提升生產(chǎn)力。

那么上述存有爭議的事實究竟如何?俗話說:讓子彈再飛一會吧!

模型 DeepSeek 訓練 成本 蒸餾
分享到:

1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控熑危?br> 3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補充。


主站蜘蛛池模板: 99在线在线视频免费视频观看 | 青青青青青国产费线在线观看 | 草草国产成人免费视频 | 东京道一本热大交乱 | 亚洲精品午夜久久aaa级久久久 | 亚洲免费一 | 青春草视频免费观看 | 日韩视频在线观看中字 | 亚洲欧美日韩另类精品一区二区三区 | 婚前试爱免费观看 | 精品国产一区二区三区在线观看 | 午夜桃色剧场 | 黑人chinese女人 | 国产伦精品一区二区三区免 | 日本黄视频在线播放 | 国产成人精品午夜免费 | 免费日本在线视频 | 草莓香蕉绿巨人丝瓜榴莲18 | 日韩欧美在线看 | 日本aa大片在线播放免费看 | 五月最新商场女厕所高跟嘘嘘 | 亚洲精品在线播放 | 色婷婷综合缴情综六月 | 国产精品视频一区二区三区不卡 | 99免费看| 我与白丝同桌的故事h文 | 99久久免费国产香蕉麻豆 | 电车痴汉中文字幕 | 亚洲一二三区视频 | 国产精品性视频免费播放 | 按摩院已婚妇女中文字幕 | 亚洲天堂免费 | 青草草视频在线观看 | 午夜精品国产自在现线拍 | 青青草高清视频 | 日本一区二区视频在线 | 亚洲国产综合久久久无码色伦 | 国产精品视频久久久久 | 韩国情事伦理片观看地址 | 日韩a级片视频 | 日本中文字幕在线视频站 |