精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    Meta發(fā)布GPT平替Llama 2,開源免費(fèi)可商用

    7月19日消息,在 19 日的微軟的 Inspire 合作伙伴大會(huì)上,Meta宣布和微軟深化合作,正式推出新一代開源大型語言模型Llama 2,并將該模型免費(fèi)開放給商業(yè)和研究使用。

    據(jù)品玩網(wǎng)報(bào)道,此次 Meta 高調(diào)開源 Llama 2,無疑是在正面硬剛走技術(shù)保密路線的 GPT-4 和谷歌的 PaLM 2。

    根據(jù) Meta 官方數(shù)據(jù),Llama 2 相較于上一代其訓(xùn)練數(shù)據(jù)提升了 40%,包含了 70 億、130 億和 700 億參數(shù) 3 個(gè)版本。Llama 2 預(yù)訓(xùn)練模型接受了 2 萬億個(gè) tokens 的訓(xùn)練,上下文長度是 Llama 1 的兩倍,其微調(diào)模型已經(jīng)接受了超過 100 萬個(gè)人類注釋的訓(xùn)練。

    2 月,Meta 首次發(fā)布了自家的大語言模型LLaMA(Large Language Model Meta AI)系列,包含 70 億、130億、330億 和 650 億4個(gè)版本。

    當(dāng)時(shí) Meta 表示, LLaMA 擁有超高性能,使用 130 億參數(shù)的 LLaMA 在規(guī)模僅為 ChatGPT 的十分之一的情況下,性能表現(xiàn)可以優(yōu)于GPT-3。

    使用 650 億參數(shù)的 LLaMA 則可以與 DeepMind 700 億參數(shù)的 Chinchilla 模型和谷歌 5400 億參數(shù)的 PaLM 模型比肩。

    但 2 月版本的 LLaMA 并不是 ChatGPT 的直接競爭對(duì)手,LLaMA 定位于“開源的研究工具”,所使用的是各類公開可用的數(shù)據(jù)集。它當(dāng)時(shí)更多的著眼于研究領(lǐng)域,僅在非商業(yè)許可下提供給政府、社區(qū)和學(xué)術(shù)界的研究人員。

    Meta 表示Llama 2可免費(fèi)用于研究和商業(yè)用途,開發(fā)者們可以直接在Llama 2官方網(wǎng)站下下載該模型。

    極客網(wǎng)企業(yè)會(huì)員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2023-07-19
    Meta發(fā)布GPT平替Llama 2,開源免費(fèi)可商用
    相較于上一代其訓(xùn)練數(shù)據(jù)提升了 40%。

    長按掃碼 閱讀全文