騰訊科技訊 3月30日消息,OpenAI不僅憑借其人工智能聊天機器人成功超越了谷歌,還意外促成了另一件幾乎不可能發(fā)生的事情:迫使Alphabet旗艦子公司谷歌和人工智能實驗室DeepMind的兩大人工智能研究團隊暫時拋開多年恩怨,決定聯(lián)手趕超OpenAI。
據(jù)知情人士透露,谷歌人工智能項目Google Brain的軟件工程師正在與DeepMind的員工合作開發(fā)與OpenAI競爭的軟件。谷歌此前推出了Bard聊天機器人來挑戰(zhàn)OpenAI的ChatGPT,卻在演示現(xiàn)場意外翻車。此后不久,Alphabet決定啟動名為“雙子座”(Gemini)的聯(lián)合項目。Bard的發(fā)布還受到一位著名谷歌人工智能研究人員辭職的內(nèi)部影響,他曾就該項目的發(fā)展向Alphabet首席執(zhí)行官桑德爾·皮查伊和其他高管發(fā)出過警告。
谷歌在2014年收購了DeepMind,但是DeepMind和Google Brain的關系更多的是競爭對手而不是合作者。兩家公司都在競相改進谷歌的產(chǎn)品和服務,尋求科學突破。但現(xiàn)如今,Alphabet的兩個人工智能實驗室都認為OpenAI已經(jīng)超越了自己。此外,初創(chuàng)公司正在挖走他們的關鍵工程師和研究人員。
OpenAI在去年11月發(fā)布了模仿人類答案的聊天機器人ChatGPT,隨后迅速躥紅成為有史以來發(fā)展最快的應用之一。谷歌自己的聊天機器人Bard上周向一些用戶開放,但它在某些任務上似乎不如ChatGPT。
知情人士稱,谷歌最資深的人工智能研究主管兼Google Brain負責人杰夫·迪恩(Jeff Dean)在雙子座項目中擔任了技術角色,他編寫的代碼將幫助谷歌開發(fā)一項可與OpenAI的GPT-4相媲美的技術。這足以看出雙子座在Alphabet內(nèi)部的重要性。
這一舉措也反映了谷歌在搜索、云等多個部門調(diào)整產(chǎn)品路線圖,以應對OpenAI與微軟合作帶來的競爭。OpenAI已經(jīng)將ChatGPT等技術集成到微軟產(chǎn)品中,微軟為這家初創(chuàng)公司提供資金和計算能力支持。
但是雙子座不得不把它作為最后的手段。Alphabet的兩個人工智能實驗室很少互相合作,也很少互相共享代碼。但知情人士表示,由于雙方現(xiàn)在都希望開發(fā)與OpenAI競爭的機器學習模型,并且都需要大量的計算能力,Alphabet只能勉強迫使二者合作。
Bard發(fā)布會的意外翻車暴露了谷歌的問題。據(jù)知情人士透露,聊天機器人的開發(fā)爭議如此之大,以至于谷歌著名人工智能工程師雅各布·德夫林(Jacob Devlin)在1月份辭職后不久就加入了OpenAI。德夫林是一篇開創(chuàng)性論文的主要作者,該論文展示了如何訓練機器學習模型,以提高它們理解句子組的能力--OpenAI已經(jīng)將這一創(chuàng)新納入其語言模型。
德夫林在向皮查伊、迪安和Bard團隊的其他高管表達擔憂后離開了。Bard團隊獲得了Google Brain員工的幫助,并使用OpenAI的ChatGPT數(shù)據(jù)來訓練其機器學習模型。具體來說,德夫林認為,Bard團隊似乎過于依賴來自ShareGPT的信息。ShareGPT是人們發(fā)布與ChatGPT對話相關內(nèi)容的網(wǎng)站。
一些谷歌員工認為,使用這樣的聊天記錄會違反OpenAI的服務條款,因為后者在其官網(wǎng)上明確指出,禁止使用“輸出…來開發(fā)與OpenAI競爭的模型”。德夫林還告訴高管們,他擔心如果一個人過于依賴ShareGPT上共享的ChatGPT聊天記錄,Bard的回答會與ChatGPT的過于相似。知情人士透露,在德夫林表示擔憂后,谷歌停止了使用ChatGPT數(shù)據(jù)訓練Bard。截至目前,谷歌及OpenAI均對此報道未予置評。
OpenAI在最近的AIGC(生成式人工智能)大戰(zhàn)中占據(jù)了領先地位,但對Alphabet的確切商業(yè)影響尚不清楚。盡管ChatGPT有許多錯誤,但數(shù)百萬人已使用它及其背后的技術來快速生成博客帖子、總結(jié)會議要點、創(chuàng)建電子表格和完成各種任務。
該產(chǎn)品迄今為止收入甚微,但這種情況可能會改變。在OpenAI的幫助下,微軟在自己的搜索引擎中集成了類似于ChatGPT的功能,希望借此提高自己的搜索市場份額。然而,微軟還沒有從谷歌手中奪走多少份額。但OpenAI似乎開創(chuàng)了一個全新的時代:應用程序已經(jīng)可以通過自然語言理解用戶的提問。
雙子座的目標是開發(fā)一個大型語言模型(一個可以理解并生成類似人類語言的計算機程序),并將使用多達1萬億個參數(shù)(這個指標可以用來衡量機器學習模型的計算負載)。據(jù)報道,GPT-4也有大約1萬億個參數(shù)。谷歌的項目需要使用數(shù)萬個TPU。TPU是谷歌開發(fā)的一種微芯片,類似于英偉達的GPU,非常適合訓練大型機器學習模型。然而,雙子座可能需要幾個月的時間才能產(chǎn)生實際效果。
與此同時,隨著谷歌爭相將人工智能融入自己的產(chǎn)品,該公司的其他團隊也在開發(fā)自己的大型語言模型。負責搜索排名的谷歌高管潘杜·納亞克(Pandu Nayak)一直在開發(fā)一種獨立的模型,他希望這種模型能夠處理特定的搜索請求。谷歌云也在開發(fā)自己的模型,出售給云服務客戶,類似于OpenAI或微軟目前提供的產(chǎn)品。(無忌)
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )