精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    速度放緩!OpenAI新旗艦?zāi)P瓦M步幅度沒那么大

    11月11日消息,盡管使用聊天機器人ChatGPT等人工智能產(chǎn)品的人數(shù)在激增,但支撐這些技術(shù)的底層模塊的改進速度似乎正在放緩。為此,ChatGPT的開發(fā)者OpenAI正在開發(fā)新技術(shù),以增強大語言模型等核心模塊,從而應(yīng)對這一挑戰(zhàn)。

    OpenAI即將推出的旗艦?zāi)P汀矮C戶座”(Orion)所面臨的挑戰(zhàn)突顯了公司當前遇到的難題。今年5月,OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)在內(nèi)部透露,他預計正在訓練中的獵戶座將顯著優(yōu)于一年前發(fā)布的上一代旗艦?zāi)P汀?jù)知情人士稱,盡管獵戶座的訓練進度僅完成20%,但其智能和任務(wù)完成能力已與GPT-4不相上下。

    不過,一些使用或測試過獵戶座的OpenAI員工表示,盡管其性能確實超越了前代模型,但提升幅度遠不及從GPT-3到GPT-4的躍升。一些研究人員指出,獵戶座在處理特定任務(wù)時未必穩(wěn)定優(yōu)于前代模型。一位員工表示,獵戶座在語言任務(wù)上表現(xiàn)出色,但在編碼等任務(wù)中可能不如之前的模型。這種情況可能會帶來問題,因為與OpenAI近期發(fā)布的其他模型相比,獵戶座在數(shù)據(jù)中心的運行成本更高。

    獵戶座的表現(xiàn)正在考驗人工智能領(lǐng)域的核心假設(shè)——縮放定律,即只要數(shù)據(jù)量和計算能力持續(xù)增加,大語言模型就能不斷改進。面對GPT改進速度放緩帶來的挑戰(zhàn),業(yè)界似乎正將重點轉(zhuǎn)向初始訓練后的模型優(yōu)化,這可能會產(chǎn)生一種新的縮放定律。

    Facebook母公司Meta首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)在內(nèi)的一些科技領(lǐng)袖認為,即使在技術(shù)未能進一步突破的最壞情況下,基于當前技術(shù)仍然有很大的開發(fā)空間來創(chuàng)建面向消費者和企業(yè)的產(chǎn)品。

    OpenAI正在應(yīng)對競爭對手Anthropic的威脅,將更多的代碼編寫功能嵌入其模型中,并開發(fā)能夠模擬人類操作計算機的軟件,以完成涉及瀏覽器和應(yīng)用程序操作的白領(lǐng)任務(wù),如點擊、光標移動和文本輸入等。

    這些產(chǎn)品屬于能夠執(zhí)行多步驟任務(wù)的AI代理范疇,其革命性可能與ChatGPT的首次發(fā)布相當。

    扎克伯格、奧特曼及其他人工智能開發(fā)者的高管表示,他們尚未觸及傳統(tǒng)縮放定律的極限。也因此,包括OpenAI在內(nèi)的公司依舊投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,以盡可能提高預訓練模型的性能。

    然而,OpenAI研究員諾姆·布朗(Noam Brown)在上月的TEDAI大會上提出警告,認為開發(fā)更先進的模型可能在經(jīng)濟上變得不可持續(xù)。他表示:“我們真的會投入數(shù)千億甚至萬億美元來訓練模型嗎?縮放模式在某個時刻會失效。”

    在公開發(fā)布獵戶座之前,OpenAI仍需完成復雜的安全測試。據(jù)員工透露,獵戶座可能會在明年初發(fā)布,并可能放棄傳統(tǒng)的“GPT”命名方式,以突顯大語言模型改進的新特性。對此,OpenAI發(fā)言人未予置評。

    數(shù)據(jù)匱乏成為模型訓練的瓶頸

    OpenAI的員工和研究人員指出,GPT進步放緩的原因之一在于高質(zhì)量文本和其他數(shù)據(jù)的供應(yīng)日益減少。大語言模型在預訓練階段需要這些數(shù)據(jù)來理解世界和不同概念之間的關(guān)系,以解決如撰寫博文或修復編碼錯誤等問題。

    近年來,大語言模型主要依賴于網(wǎng)站、書籍等來源的公開文本數(shù)據(jù)進行預訓練,但開發(fā)者已幾乎耗盡了這類數(shù)據(jù)的潛力。為此,OpenAI組建了由曾負責預訓練的尼克·賴德(Nick Ryder)領(lǐng)導的基礎(chǔ)團隊,致力于研究如何應(yīng)對數(shù)據(jù)短缺問題,并探索縮放定律的持續(xù)適用性。

    據(jù)OpenAI員工透露,獵戶座部分使用了由其他OpenAI模型(如GPT-4和最近發(fā)布的推理模型)生成的AI數(shù)據(jù)進行訓練。然而,這種合成數(shù)據(jù)也帶來了新問題,可能導致獵戶座在某些方面與前代模型過于相似。

    OpenAI的研究人員正在利用其他工具,通過改進特定任務(wù)的處理方式來優(yōu)化模型后期的表現(xiàn)。他們采用一種稱為強化學習的方法,讓模型從大量已正確解決的問題中學習,如數(shù)學和編碼問題。

    此外,研究人員還邀請人類評估員在編碼或問題解決任務(wù)上測試預訓練模型,并對其答案進行評分,這有助于研究人員調(diào)整模型,使其在寫作和編碼等請求上的表現(xiàn)更佳。這一過程稱為帶有人類反饋的強化學習,也曾幫助過早期的AI模型改進。

    OpenAI及其他AI開發(fā)商通常依賴初創(chuàng)公司,如Scale AI和Turing,來管理成千上萬名承包商,以處理這些評估工作。

    OpenAI還開發(fā)了一種名為o1的推理模型,該模型在回答前會花費更多時間“思考”訓練數(shù)據(jù),這一過程稱為測試時間計算。這意味著,即使不改變底層模型,給o1分配更多計算資源,也可以持續(xù)提高其響應(yīng)質(zhì)量。據(jù)知情人士透露,即使底層模型改進速度較慢,若OpenAI能保持持續(xù)改進,仍然可以實現(xiàn)更好的推理效果。

    “這為模型擴展開辟了新維度,”布朗在TED大會上說。他補充道,研究人員可以通過“每次查詢成本從1美分提高到10美分”來提升模型響應(yīng)質(zhì)量。

    奧特曼也強調(diào)了推理模型的重要性,認為它可與大語言模型結(jié)合使用?!拔蚁M评砟芰δ軌蚪怄i我們多年未能實現(xiàn)的突破,比如讓模型在科學研究和復雜代碼編寫中做出貢獻,”奧特曼在一場應(yīng)用開發(fā)者活動中表示。

    在最近接受Y Combinator首席執(zhí)行官陳嘉興(Garry Tan)采訪時,奧特曼透露:“我們基本上知道如何實現(xiàn)通用人工智能——一種能達到人類能力的技術(shù),其中一部分是創(chuàng)造性地運用現(xiàn)有模型。”

    數(shù)學家和科學家們表示,o1對他們的研究工作有幫助,能作為合作伙伴提供反饋和啟發(fā)。然而,據(jù)兩位知情員工透露,由于o1的價格是非推理模型的六倍,因此其客戶基礎(chǔ)尚未普及。

    突破瓶頸,提升推理能力

    一些對AI開發(fā)商投資數(shù)千萬美元的投資者疑慮大語言模型的改進速度是否開始趨于平穩(wěn)。

    風險投資家本·霍洛維茨(Ben Horowitz)在YouTube一段視頻中表示:“我們正以相同的速度增加訓練AI的圖形處理單元,但在智能提升方面未見顯著改善。”霍洛維茨的風投公司不僅是OpenAI的股東,還投資了Mistral和Safe Superintelligence等競爭對手。

    霍洛維茨的同事馬克·安德森(Marc Andreessen)在同一視頻中指出:“許多聰明人在致力于突破瓶頸,探索如何提升推理能力?!?/p>

    企業(yè)軟件公司Databricks聯(lián)合創(chuàng)始人兼主席伊翁·斯托伊卡(Ion Stoica)表示,大語言模型在某些方面可能已趨于穩(wěn)定,但在其他領(lǐng)域仍有改進空間。他還開發(fā)了一個網(wǎng)站,供應(yīng)用開發(fā)者評估不同的大語言模型。

    斯托伊卡稱,盡管AI在編碼和解決復雜問題上不斷進步,但在執(zhí)行通用任務(wù)(如分析文本情感或描述醫(yī)療癥狀)時,進展似乎放緩。

    “在常識性問題上,我們似乎看到大語言模型的表現(xiàn)趨于平穩(wěn)。為實現(xiàn)進一步突破,我們需要更多的事實性數(shù)據(jù),而合成數(shù)據(jù)幫助有限?!保ㄐ⌒。?/p>

    (免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
    任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

    贊助商
    2024-11-12
    速度放緩!OpenAI新旗艦?zāi)P瓦M步幅度沒那么大
    11月11日消息,盡管使用聊天機器人ChatGPT等人工智能產(chǎn)品的人數(shù)在激增,但支撐這些技術(shù)的底層模塊的改進速度似乎正在放緩。為此,ChatGPT的開發(fā)者OpenAI正在開發(fā)新技術(shù),以增強大語言模型等核心模塊,從而應(yīng)對這一挑戰(zhàn)。OpenAI即將推出的旗艦?zāi)P?ldquo;獵戶座”(Orion)所面臨的挑戰(zhàn)突顯...

    長按掃碼 閱讀全文