精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    假開源真噱頭?開源大模型和你想的不一樣

    科技云報到原創(chuàng)。

    25年前,著名的計算機程序員、開源軟件運動旗手Eric S·Raymond出版了《大教堂與集市》一書,首次提出了開放源代碼(Open Source)的概念,提倡軟件源代碼能被任何人查看、修改、分發(fā)。開源自此深刻影響了互聯(lián)網(wǎng)行業(yè)的每一個角落。

    在大模型和GenAI崛起的當(dāng)下,開源再次成為業(yè)界關(guān)注焦點,對于開源和閉源的爭論也久久未能平息。然而,大模型開源相比傳統(tǒng)軟件開源,情況要更加復(fù)雜。在開源的定義、性質(zhì)、開放內(nèi)容和開源策略上都有完全不同的標(biāo)準(zhǔn)和內(nèi)容。因此,“開源派”的帽子并不是那么好戴的。

    “開源”大模型再起波瀾

    10月29日,全球權(quán)威的開放源代碼促進會(Open Source Initiative,OSI)發(fā)布了關(guān)于“開源AI定義(OSAID)”1.0版本,正是這一定義引起了業(yè)界不小的波瀾。

    根據(jù)OSAID,AI模型若要被視為“開源”,必須提供足夠的信息,使任何人都可以“實質(zhì)性地”重建該模型。根據(jù)新定義,AI大模型若要被視為開源有三個要點:

    第一,訓(xùn)練數(shù)據(jù)透明性。必須提供足夠的信息,使任何人能夠“實質(zhì)性”地重建該模型,包括訓(xùn)練數(shù)據(jù)的來源、處理方式和獲取方式;

    第二,完整代碼。需要公開用于訓(xùn)練和運行AI的完整源代碼,展示數(shù)據(jù)處理和訓(xùn)練的規(guī)范;

    第三,模型參數(shù)。包括模型的權(quán)重和配置,需提供相應(yīng)的訪問權(quán)限。

    OSAID還列出了開發(fā)者使用開源AI時應(yīng)享有的使用權(quán),例如可以為任何目的使用和修改模型,而無需獲得他人許可。

    OSI稱,新定義是為了避免當(dāng)前行業(yè)中對“開源大模型”的過度營銷和使用誤解。據(jù)此標(biāo)準(zhǔn),當(dāng)前市場上表面開源的大模型幾乎都“名不副實”,包括大名鼎鼎的“開源大模型”標(biāo)桿Meta的Llama和谷歌的Gemma。

    過去兩三年中,OSI發(fā)現(xiàn)傳統(tǒng)軟件行業(yè)的“開源”與大模型有著本質(zhì)區(qū)別,定義并不適用當(dāng)前火熱的AI大模型。因為AI大模型遠比傳統(tǒng)開源軟件更復(fù)雜:它不僅包含代碼,還涉及大量的數(shù)據(jù)、復(fù)雜的模型架構(gòu)以及訓(xùn)練過程中的各種參數(shù)等。而這些數(shù)據(jù)的收集、整理、標(biāo)注等過程都對模型的性能和結(jié)果產(chǎn)生重要影響。傳統(tǒng)的開源定義無法全面涵蓋這些新的要素,導(dǎo)致在AI領(lǐng)域的適用性不足。

    目前,全球許多初創(chuàng)企業(yè)和大型科技公司,稱其AI模型發(fā)布策略為“開源”,因為將大模型描述為“開源”會被開發(fā)者認為更易開發(fā)、更低成本、更多資源。但研究人員發(fā)現(xiàn),許多開源模型實際上只是名義上開源,它們限制了用戶可以對模型做什么,并且實際訓(xùn)練模型所需的數(shù)據(jù)是保密的,而且運行這些模型所需要的計算能力超出了許多開發(fā)者的能力范圍。例如,Meta要求月活躍用戶超過7億的平臺獲得特殊許可才能使用其Llama模型。

    無獨有偶,今年6月,《Nature》的一篇報道指出,很多科技巨頭宣稱他們的AI模型是開源的,但實際上并不完全透明。這些模型的數(shù)據(jù)和訓(xùn)練方法往往沒有公開,這種做法被稱為 “開源洗白”,嚴(yán)重妨礙了科學(xué)研究的可復(fù)現(xiàn)性和創(chuàng)新。

    荷蘭拉德堡德大學(xué)的人工智能研究學(xué)者Andreas Liesenfeld和計算語言學(xué)家Mark Dingemanse也發(fā)現(xiàn),雖然“開源”一詞被廣泛使用,但許多模型最多只是“開放權(quán)重”,關(guān)于系統(tǒng)構(gòu)建的其他大多數(shù)方面都隱藏了起來。

    比如Llama和Gemma雖然自稱開源或開放,但實際上只是開放權(quán)重,外部研究人員可以訪問和使用預(yù)訓(xùn)練模型,但無法檢查或定制模型,也不知道模型如何針對特定任務(wù)進行微調(diào)。

    “開源”大模型到底開放了什么?

    對于社區(qū)中的開源軟件來說,源代碼是其核心。開發(fā)者通過閱讀源代碼可以掌握該軟件的全部細節(jié),進而可以為該軟件開發(fā)新的功能、提供測試、修復(fù)Bug以及做代碼評審等。

    開發(fā)者提交自己的代碼到開源項目,合入后就形成了新的版本。這就是開放式協(xié)作開發(fā),它是開源軟件的基本開發(fā)模式,與普通軟件的開發(fā)過程并沒有本質(zhì)的不同,只是開發(fā)人員在地理位置上是分散的,他們依靠一些遠程協(xié)作平臺,比如GitHub、Gitee 等,以開放式治理的方式進行協(xié)作。

    但是對于大模型來說,除了源代碼以外,數(shù)據(jù)是更為重要的核心資產(chǎn)。大模型是基于深度學(xué)習(xí)技術(shù),通過海量數(shù)據(jù)進行訓(xùn)練而來的深度學(xué)習(xí)模型,大模型能夠基于自然語言來實現(xiàn)文本的生成和理解,根據(jù)輸入的數(shù)據(jù)得到輸出,從而完成多類型的通用任務(wù)。

    在大模型的運轉(zhuǎn)方面,主要就是訓(xùn)練和推理兩個過程,訓(xùn)練過程就是大模型產(chǎn)生的過程,訓(xùn)練過程的基本原理是在深度學(xué)習(xí)框架上運行特定的模型架構(gòu),然后把訓(xùn)練數(shù)據(jù)集輸入給架構(gòu),再通過復(fù)雜的計算和多次迭代,最后得到一套想要的權(quán)重,而這套權(quán)重就是訓(xùn)練后的結(jié)果,也叫預(yù)訓(xùn)練模型。

    預(yù)訓(xùn)練模型在經(jīng)過部署之后,以及在得到深度學(xué)習(xí)框架的支持之下,根據(jù)給定的輸入內(nèi)容得到對應(yīng)的輸出結(jié)果,這一套流程就是推理過程。

    但需要說明的是,在大模型訓(xùn)練和推理過程中,往往所需要的算力和資源的差異很大。在訓(xùn)練過程中,需要很多次的迭代計算,且需要具備海量GPU算力做支持,這樣才能在合理的時間范圍內(nèi)完成一次完整的訓(xùn)練過程。另外,在推理過程中,需要的算力資源卻相對較小,因為推理的時候在消費型GPU以及普通的GPU上就可以完成一次一般類型的推理。

    根據(jù)目前情況來看,市面上絕大多數(shù)開源大模型開放出來的只是一套權(quán)重,也就是預(yù)訓(xùn)練模型,如果開發(fā)者想要復(fù)現(xiàn)該開源大模型的訓(xùn)練過程,需要通過優(yōu)化數(shù)據(jù)集、方法等訓(xùn)練出一個更優(yōu)質(zhì)的模型,而且需要數(shù)據(jù)集、訓(xùn)練過程和源代碼,但是大部分開源大模型在開源的時候并未提供上面所需要的這些內(nèi)容,就算開發(fā)者掌握算力也無法復(fù)現(xiàn)。

    市面上這些類比傳統(tǒng)軟件的開源大模型更像是一個開放了的二進制包,比如.exe文件,只是閉源、免費開放使用的,它其實是一個“免費軟件”而不是一個“開源軟件”。

    大模型所謂的“開源”,實際上是有三個對象,源碼只是其中之一,需要同時具備算法、高算力、大數(shù)據(jù)這三大要素,才有可能最終得到一款和ChatGPT類似效果拔群的模型。

    大模型的源碼就在算法,算法的核心部分主要包括有模型結(jié)構(gòu)和訓(xùn)練方法,這兩部分都有對應(yīng)的源碼。拿到源碼只是第一步,高算力和大數(shù)據(jù)是大多數(shù)企業(yè)無法逾越的門檻。相比高算力而言,大數(shù)據(jù)是最難獲取同時也是價值最高的部分。

    那么,開源大模型在不提供數(shù)據(jù)集和源代碼的前提下,是不是就不能進行協(xié)作了呢?并非完全如此。

    基于大模型的實現(xiàn)原理和技術(shù)特性,開發(fā)者可以通過微調(diào)的方式對預(yù)訓(xùn)練大模型進行能力擴展,通過額外的數(shù)據(jù)集進行進一步的訓(xùn)練,優(yōu)化模型在特定領(lǐng)域的效果,得到一個新的衍生模型。

    微調(diào)數(shù)據(jù)規(guī)??纱罂尚?,但通常比原始訓(xùn)練數(shù)據(jù)集小得多,所以產(chǎn)生一個微調(diào)模型所需的算力成本也低得多。

    因此,在開源大模型界,出現(xiàn)了一些以主流預(yù)訓(xùn)練模型為基礎(chǔ)底座衍生的微調(diào)大模型,并形成了譜系。

    大模型根本沒有“真”開源?

    從當(dāng)前各家大模型廠商的宣傳看,大多采用了“以偏概全”“避重就輕”的方式,很容易讓人混淆模型開源和軟件開源的概念,讓開發(fā)者或企業(yè)誤認為開源大模型與開源軟件是同等開源水平。

    無論是大模型還是軟件,發(fā)揮開源優(yōu)勢,本質(zhì)上是吸收開發(fā)者對大模型或軟件的改進。但其實,目前所謂的開源大模型無法真正像開源軟件一樣,靠社區(qū)開發(fā)者一起參與來提升效果和性能。應(yīng)用開源大模型的企業(yè),也很難迭代并優(yōu)化這些模型,以至于無法高效地應(yīng)用于企業(yè)場景。

    至于什么是開源大模型,業(yè)界并沒有像開源軟件一樣達成一個明確的共識。

    綜合來看,大模型的開源和軟件開源在理念上的確有相似之處,都是基于開放、共享和協(xié)作的原則,鼓勵社區(qū)共同參與開發(fā)和改進,推動技術(shù)進步并提高透明性。

    然而,在實現(xiàn)和需求上有顯著區(qū)別。

    軟件開源主要針對應(yīng)用程序和工具,開源的資源需求較低,而大模型的開源則涉及大量計算資源和高質(zhì)量的數(shù)據(jù),并且可能有更多使用限制。因此,雖然兩者的開源都旨在促進創(chuàng)新和技術(shù)傳播,但大模型開源面臨更多的復(fù)雜性,社區(qū)貢獻形式也有所不同。

    國內(nèi)此前也曾爆發(fā)過大模型開源與閉源的討論。百度創(chuàng)始人李彥宏多次強調(diào)了兩者的區(qū)別,大模型開源不等于代碼開源:“模型開源只能拿到一堆參數(shù),還要再做SFT(監(jiān)督微調(diào))、安全對齊,即使是拿到對應(yīng)源代碼,也不知道是用了多少比例、什么比例的數(shù)據(jù)去訓(xùn)練這些參數(shù),無法做到眾人拾柴火焰高,拿到這些東西,并不能讓你站在巨人的肩膀上迭代開發(fā)?!?/p>

    由此來看,目前對開源大模型的改進主要通過微調(diào)實現(xiàn),但因微調(diào)主要針對模型輸出層調(diào)整不涉及核心構(gòu)架和參數(shù),無法從根本上改變模型的能力和性能。

    即便是“真開源”,受技術(shù)特性與訓(xùn)練成本所限,開放式協(xié)作對大模型性能提升效果也有限。大模型訓(xùn)練過程需要耗費大量算力,算力成本居高不下,即便創(chuàng)作者開源數(shù)據(jù)集和訓(xùn)練細節(jié),普通開發(fā)者也很難承擔(dān)復(fù)現(xiàn)訓(xùn)練過程的高昂訓(xùn)練成本,模型能力難以因開放而得到實質(zhì)提升。

    數(shù)據(jù)顯示,ChatGPT一次完整的模型訓(xùn)練成本超過8000萬元。如果進行10次完整的模型訓(xùn)練,成本便高達8億元。

    站在企業(yè)角度,選擇一款大模型產(chǎn)品或應(yīng)用,需要根據(jù)組織的具體需求和戰(zhàn)略目標(biāo)來決定。

    李彥宏認為,評價一個模型,維度是多方面的,不僅是看到榜單上的多項能力,也要看效果看效率。當(dāng)大模型加速駛?cè)肷虡I(yè)應(yīng)用之后,在追求高效率和低成本的情況下,真正的衡量標(biāo)準(zhǔn)應(yīng)是模型在實際應(yīng)用中能否滿足用戶需求和產(chǎn)生價值。

    大模型應(yīng)用是涵蓋“技術(shù)+服務(wù)”的一套完整解決方案,對單一方面的忽略或考慮不足都會影響到企業(yè)的“降本增效”效果,更有甚者會起到“增本降效”的負面效果,因此需要通過“算總賬”進行綜合考量。

    對于如何選擇大模型這件事,企業(yè)也無需過于糾結(jié),應(yīng)該將關(guān)注點放在哪個大模型更好用、如何匹配自身的實際業(yè)務(wù)需要,從而選擇最適合企業(yè)自身業(yè)務(wù)場景的大模型平臺,然后專注于應(yīng)用開發(fā)。那么企業(yè)如何選擇呢?

    首先,要計算硬件資源成本。一些商業(yè)大模型會配套相應(yīng)的工具鏈,包括訓(xùn)練工具鏈、推理工具鏈,這些工具鏈能夠起到比較好的降本效果,對企業(yè)來說,訓(xùn)練環(huán)節(jié)能大約省10~20%的硬件成本,推理環(huán)節(jié)則省得更多,業(yè)務(wù)規(guī)模越大,省得越多。

    其次,要看模型帶來的業(yè)務(wù)收益。一些業(yè)務(wù)對于90%還是95%的準(zhǔn)確率敏感度沒那么高。但有一些業(yè)務(wù),比如商業(yè)廣告類,CPM、CTR差一個點,對廣告平臺來說一天可能就有上千萬的出入,這時候?qū)δP偷男Ч笤礁叩钠髽I(yè),就更愿意去買一個效果更好的模型。

    第三,要考慮機會成本和人力成本。在一些商業(yè)大模型中,廠商會根據(jù)企業(yè)業(yè)務(wù)需求把模型和硬件進行適配,并調(diào)到最優(yōu)狀態(tài),讓企業(yè)可以直接復(fù)制成熟經(jīng)驗,這樣就大大降低了大模型在適配過程中的算力、人力等多項成本。

    面對行業(yè)的大模型開源閉源、真假開源之爭,我們無需以道德綁架要求所有大模型都開源,因為這涉及大量技術(shù)、資源和安全考量,需要平衡開放與安全、創(chuàng)新與責(zé)任。正如科技領(lǐng)域的其他方面一樣,多元化的貢獻方式才能構(gòu)建一個更豐富的技術(shù)生態(tài)系統(tǒng)。

    真正的大模型開源時刻還遠未到來,正如開源和專有軟件共同塑造了今天的軟件生態(tài),大模型的開源與否以及開源程度也并非完全對立,多種技術(shù)路線并存發(fā)展是推動AI技術(shù)不斷進步、滿足不同應(yīng)用場景需求的重要動力。最終,用戶和市場會作出適合自己的選擇。

    【關(guān)于科技云報到】企業(yè)級IT領(lǐng)域Top10新媒體。聚焦云計算、人工智能、大模型、網(wǎng)絡(luò)安全、大數(shù)據(jù)、區(qū)塊鏈等企業(yè)級科技領(lǐng)域。原創(chuàng)文章和視頻獲工信部權(quán)威認可,是世界人工智能大會、數(shù)博會、國家網(wǎng)安周、可信云大會與全球云計算等大型活動的官方指定傳播媒體之一。

    免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

    極客網(wǎng)企業(yè)會員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2024-11-04
    假開源真噱頭?開源大模型和你想的不一樣
    科技云報到原創(chuàng)。25年前,著名的計算機程序員、開源軟件運動旗手Eric S·Raymond出版了《大教堂與集市》一書,首次提出了開放源代碼(Open...

    長按掃碼 閱讀全文