精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    爆火的DeepSeek引發(fā)成本、技術質疑,未來算力還重要嗎?

    TechWeb文/卞海川

    近期,DeepSeek在AI大模型領域引發(fā)熱議,憑借其驚人的性能表現(xiàn)和低成本訓練模式,迅速吸引了全球關注,且熱度一直不減。但隨之而來的,對其成本、技術以及為未來作為大模型基礎設施的算力也引發(fā)了爭議。

    DeepSeek陷成本誤區(qū)?

    提及成本,DeepSeek發(fā)表的原始報告中有詳細解釋這筆成本的計算:“在預訓練階段,每兆個token上訓練DeepSeek-V3僅需要180K H800 GPU小時,也就是說,在我們擁有2048個H800 GPU的叢集上需要3.7天。因此,我們的預訓練階段在不到兩個月的時間內完成,耗費2664K GPU小時。加上上下文長度擴充所需的119K GPU小時和后制訓練所需的5K GPU小時,DeepSeek-V3的完整訓練僅需2.788M GPU小時。假設H800 GPU的租賃價格為每GPU小時2美元,我們的總訓練成本僅為557.6萬美元。”

    對此,近日知名的SemiAnalysis公開發(fā)布的《DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts》的報告中稱:DeepSeek論文中提到的600萬美元成本僅指預訓練運行的GPU成本,這只是模型總成本的一小部分,他們在硬件上的花費遠高于5億美元。例如為了開發(fā)新的架構創(chuàng)新,在模型開發(fā)過程中,需要投入大量資金來測試新想法、新架構思路,并進行消融實驗。開發(fā)和實現(xiàn)這些想法需要整個團隊投入大量人力和GPU計算時間。例如深度求索的關鍵創(chuàng)新—多頭潛在注意力機制(Multi-Head Latent Attention),就耗費了數(shù)月時間。

    無獨有偶,據(jù)外媒報道,李飛飛等斯坦福大學和華盛頓大學的研究人員以不到50美元的費用,使用了16張英偉達H100 GPU,耗時26分鐘就完成了訓練,成功“打造”出了一個名為s1-32B的人工智能推理模型。

    有業(yè)內觀點認為,DeepSeek模型低成本并不客觀。

    武漢大學計算機學院教授、中國人工智能學會心智計算專委會副主任蔡恒進對TechWeb表示,DeepSeek在生成模型的成本在報告中已經寫的很清晰了,過于糾結前期的投入,有多少實際成本是不重要的,特別是對于國內產業(yè)成本很低的情況下,前期做研究的成本也會比美國低很多。

    蒸餾業(yè)內通行做法,是非公婆各有理

    除了上述的成本外,業(yè)內對于DeepSeek爭議最大的還有就是其是否使用了蒸餾技術,如果使用,究竟使用了誰家的?

    最先提出質疑的是,是在DeepSeek R1發(fā)布之初,OpenAI和微軟均向媒體證實,已掌握疑似DeepSeek通過“蒸餾”(distillation)技術,利用OpenAI專有模型來訓練其AI大模型。這使得DeepSeek能夠以較低的成本在特定任務上達到類似的效果。OpenAI雖未進一步提供證據(jù)的細節(jié),但根據(jù)其服務條款,用戶不得“復制”任何OpenAI的服務,或“利用輸出結果開發(fā)與OpenAI競爭的模型”。

    對于DeepSeek爆火之下,馬斯克一直罕見地并未發(fā)表評論,卻在最近點贊了一則推文。推文中提到了DeepSeek大量依賴模型蒸餾技術,需要借助ChatGPT-4o和o1才能完成訓練。盡管模型蒸餾是一項常見的技術手段,能夠將OpenAI中的大量數(shù)據(jù)迅速提煉重點并快速理解和應用,但這種模式只能讓DeepSeek接近OpenAI,而難以真正超越OpenAI。

    除了國外,國內關于DeepSeek V3曾在測試中出現(xiàn)過異常:該模型自稱是OpenAI的ChatGPT,并能提供OpenAI的API使用說明。專家認為,這很可能是由于訓練數(shù)據(jù)中混入了大量由ChatGPT生成的內容(即“蒸餾”數(shù)據(jù)),導致模型發(fā)生了“身份混淆”。

    此外,由中國科學院深圳先進技術研究院、北京大學、01.AI、南方科技大學、Leibowitz AI等多個知名機構的研究團隊聯(lián)合發(fā)表的《Distillation Quantification for Large Language Models(大語言模型的蒸餾量化)》論文則顯示DeepSeek V3的蒸餾過程可能主要來自GPT4o,且蒸餾程度較高。

    該論文提出了一個系統(tǒng)化的框架,量化并評估大模型蒸餾的過程及其影響,采用了“響應相似性評估(RSE)”和“身份一致性評估(ICE)”兩個量化指標。RSE實驗結果顯示,DeepSeek V3的蒸餾程度與GPT4o接近,評分為4.102,遠高于其他模型(如Llama 3.1-70B和Doubao-Pro-32k)。在ICE實驗中,DeepSeek V3也顯示出較高的蒸餾程度,屬于可疑響應數(shù)量最多的模型之一。

    對于蒸餾技術的爭議,蔡恒進對TechWeb表示,DeepSeek完全蒸餾GPT的說法是錯誤的,ChatGPT的模型是閉源的,而DeepSeek展示了思考過程,這是抄不出來的。“DeepSeek技術上是有創(chuàng)新的,過于糾結蒸餾這方面完全沒有意義?!辈毯氵M說道。

    蔡恒進認為DeepSeek有著獨特的技術路徑優(yōu)勢,它可以從底層優(yōu)化,可以繞開英偉達CUDA生態(tài),可以大幅提升國產芯片做預訓練的性能。

    打破算力魔咒,未來算力還重要嗎?

    基于我們前述成本的優(yōu)勢,有業(yè)內觀點認為,DeepSeek的出現(xiàn),打破了英偉達等科技巨頭“堆積算力”的路徑,也就是說,美國AI巨頭們認定的那個靠錢、靠更高算力芯片才能堆出來的更好的模型,不需要那么高昂的門檻了。

    蔡恒進對TechWeb表示,原來我們一直認為不斷“堆積算力”才能提高AI模型能力,但Deepseek的出現(xiàn)走出了另一條路,即不一定要提升很高的參數(shù)規(guī)模就能實現(xiàn)很高的性能,可能對算力需求至少降到10倍以上?!岸阉懔Α北旧頉]有錯,但隨著Deepseek的出現(xiàn)我們會發(fā)現(xiàn)這條路的性價比不高。

    DeepSeek-V3極低的訓練成本預示著AI大模型對算力投入的需求將大幅下降,但也有觀點認為,DeepSeek表現(xiàn)固然優(yōu)秀,但其統(tǒng)計口徑只計算了預訓練,數(shù)據(jù)的配比需要做大量的預實驗,合成數(shù)據(jù)的生成和清洗也需要消耗算力。

    此外,在訓練上做降本增效不代表算力需求會下降,只代表大廠可以用性價比更高的方式去做模型極限能力的探索。

    業(yè)內在討論算力時,常引用蒸汽時代的杰文斯悖論來類比。這一悖論由經濟學家威廉?斯坦利?杰文斯提出,核心觀點是:當某種資源的使用效率提高、獲取變得更容易時,其總體使用量往往不減反增。以蒸汽機為例,燃油效率的提升降低了單位工作量所需的煤炭成本,反而刺激了更多的工業(yè)活動,導致煤炭的總體消耗量上升。蒸汽機效率的提升,不僅沒有減少對蒸汽機的需求,反而因為技術的推廣和應用場景的擴大,進一步增加了市場對蒸汽機的需求。DeepSeek 的發(fā)展也呈現(xiàn)出類似的趨勢:算力效率的提升并未減少對算力的需求,反而推動了更多高算力應用的落地,使得行業(yè)對算力的需求持續(xù)增長。

    對此,中信證券研報也指出,近日,DeepSeek-V3的正式發(fā)版引起AI業(yè)內廣泛高度關注,其在保證了模型能力的前提下,訓練效率和推理速度大幅提升。DeepSeek新一代模型的發(fā)布意味著AI大模型的應用將逐步走向普惠,助力AI應用廣泛落地;同時訓練效率大幅提升,亦將助力推理算力需求高增。

    而Bloomberg Intelligence最近的一篇報告顯示,企業(yè)客戶可能會在2025年進行更大規(guī)模的AI投資,而AI支出增長將更側重于推理側,以實現(xiàn)投資變現(xiàn)或提升生產力。

    那么上述存有爭議的事實究竟如何?俗話說:讓子彈再飛一會吧!

    免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

    2025-02-10
    爆火的DeepSeek引發(fā)成本、技術質疑,未來算力還重要嗎?
    近期,DeepSeek在AI大模型領域引發(fā)熱議,憑借其驚人的性能表現(xiàn)和低成本訓練模式,迅速吸引了全球關注,且熱度一直不減。

    長按掃碼 閱讀全文