精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    OpenAI推出新一代AI模型GPT-4o 音頻視頻理解能力尚無(wú)敵手

    5月14日消息,據(jù)外媒報(bào)道,在今日凌晨1點(diǎn)開始的春季更新中,OpenAI宣布了他們新一代的旗艦?zāi)P虶PT-4o,可以利用語(yǔ)音、視頻和文本信息進(jìn)行實(shí)時(shí)推理。

    從OpenAI在官網(wǎng)上公布的信息來(lái)看,GPT-4o中的“o”源自“omni”,也就是全面、全能的意思,朝著更自然的人機(jī)交互又邁出了關(guān)鍵一步。

    而GPT-4o也的確如名字中“omni”的全能一樣,是一款能力更全面的大語(yǔ)言模型,打通了文本、音頻和圖像,接受任何文本、音頻和視頻的組合輸入,并生成文本、音頻和視頻的組合輸出。

    OpenAI在官網(wǎng)上披露,GPT-4o在英文文本和代碼中的表現(xiàn)與GPT-4 Turbo相當(dāng),但在非英文文本上的能力大幅提升,在視頻和音頻的理解上,GPT-4o要明顯強(qiáng)于當(dāng)前的其他模型。

    在官網(wǎng)上,OpenAI提到,在GPT-4o之前,通過語(yǔ)音模式同ChatGPT對(duì)話時(shí),有較長(zhǎng)時(shí)間的延遲,GPT-3.5平均為2.8秒,GPT-4平均為5.4秒。而由三個(gè)獨(dú)立模式組成的語(yǔ)音模式,也丟失了大量信息,無(wú)法直接識(shí)別音調(diào)、多個(gè)說話者或背景噪音,也無(wú)法輸出笑聲、歌唱或表達(dá)情感。

    但在GPT-4o中,OpenAI訓(xùn)練一個(gè)跨文本、音頻和視頻的端到端新模型,所有的輸入和輸出都是由同一神經(jīng)網(wǎng)絡(luò)處理,GPT-4o也是他們首個(gè)整合了個(gè)文本、音頻和視頻模式的模型,

    能力更全面的GPT-4o,響應(yīng)速度也更快,最快232毫秒響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類在對(duì)話中的響應(yīng)速度相當(dāng)。

    除了更強(qiáng)、更全面的能力,OpenAI也在推動(dòng)GPT-4o更廣泛的應(yīng)用。GPT-4o的文本和圖片功能自推出之日起就向ChatGPT推送,ChatGPT用戶可免費(fèi)使用,ChatGPT Plus用戶的數(shù)據(jù)量上限將是免費(fèi)用戶的5倍,新版本的音頻模式將在未來(lái)幾周向ChatGPT Plus用戶推送。

    OpenAI周二凌晨1點(diǎn)開始的春季更新,是由CTO Mira Murati主持進(jìn)行,登臺(tái)的還有兩位研發(fā)人員,公司CEO薩姆?奧特曼并未登場(chǎng)。

    不過,未現(xiàn)身直播的薩姆?奧特曼,在社交媒體上對(duì)GPT-4o也進(jìn)行了推廣。他在社交媒體上就表示,他們最新的模型GPT-4o,是他們到目前為止最好的模型,它很聰明、速度很快,是天然的多模態(tài)。

    薩姆?奧特曼在社交媒體上也提到,GPT-4o對(duì)所有的ChatGPT用戶免費(fèi),而此前GPT-4級(jí)別的模型僅對(duì)按月付費(fèi)的用戶免費(fèi)。

    而值得注意的是,OpenAI在周二凌晨推出能力更全面的GPT-4o,無(wú)疑會(huì)給谷歌帶來(lái)更大的壓力,谷歌2024年度的I/O開發(fā)者大會(huì),將在當(dāng)?shù)貢r(shí)間周二開始,外界預(yù)計(jì)他們會(huì)推出大量人工智能相關(guān)的產(chǎn)品。(海藍(lán))

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

    贊助商
    2024-05-14
    OpenAI推出新一代AI模型GPT-4o 音頻視頻理解能力尚無(wú)敵手
    GPT-4o中的“o”源自“omni”,也就是全面、全能的意思。

    長(zhǎng)按掃碼 閱讀全文