2月20日消息,在接受《連線》雜志采訪時,Google DeepMind首席執(zhí)行官戴米斯·哈薩比斯(Demis Hassabis)表示,盡管人工智能領域已取得了顯著的進展,但真正的突破尚未到來。他強調,簡單地擴大規(guī)模無法推進行業(yè)的發(fā)展。
在過去一年中,OpenAI通過ChatGPT等項目在業(yè)界獨占鰲頭。然而,在哈薩比斯的帶領下,Google DeepMind并未因此氣餒,而是在人工智能模型研發(fā)上展現了強大的競爭力和創(chuàng)新精神。
自從Alphabet去年4月合并了其兩個人工智能部門為Google DeepMind后,哈薩比斯一直專注于整合資源,應對OpenAI的崛起及其與微軟的深度合作,后者被Alphabet視為對其核心業(yè)務——搜索引擎的潛在威脅。
哈薩比斯透露,谷歌研究人員在ChatGPT發(fā)布前已有類似想法,但由于擔心濫用和誤用,決定暫不商業(yè)化該技術。
隨著多模態(tài)人工智能模型Gemini的迅猛發(fā)展,Google DeepMind在研究和發(fā)布速度上發(fā)生了巨大變化。Gemini不僅提升了谷歌在與ChatGPT競爭中的實力,也強化了多個谷歌產品。Gemini發(fā)布兩個月后,谷歌推出了更為強大的免費版Gemini Pro 1.5,該模型能同時分析大量文本、視頻和音頻數據。
隨著科技巨頭們紛紛開發(fā)和推出更強大、實用的人工智能系統(tǒng),Alphabet推出的Gemini Ultra模型無疑為行業(yè)樹立了新標桿,并可能促使競爭對手如OpenAI加速研發(fā)。
最近,哈薩比斯在倫敦家中接受了《連線》雜志資深作家威爾·奈特(Will Knight)的專訪,深入探討了Gemini Pro 1.5的技術細節(jié)和未來發(fā)展,及人工智能領域的趨勢。
全文如下:
問:Gemini Pro 1.5能接收更多數據作為輸入,并采用了名為“專家混合”的架構,這兩者之間是什么關系?
哈薩比斯:Gemini Pro 1.5能處理適中大小的短片。想象你在學習某主題,有一個小時的視頻講座,你需要找到特定事實或內容,這非常有用。我相信這將帶來許多令人驚嘆的用例。
在Google DeepMind首席科學家杰夫·迪恩(Jeff Dean)的領導下,我們發(fā)明了“專家混合”架構,并不斷優(yōu)化改進。盡管Gemini Pro 1.5還未廣泛測試,但性能已與上一代最大模型相當。這表明我們有能力利用這些技術創(chuàng)新創(chuàng)建更大的模型,這正是我們的努力方向。
問:計算能力增強和用于訓練AI模型的數據量增加,是否推動了人工智能進步?據說,奧特曼打算籌集高達7萬億美元資金提高AI芯片產量,更強的計算能力會開啟超級AI之門嗎?
哈薩比斯:確實,這些因素推動了人工智能巨大進步。這也是為何像英偉達這樣的公司如此成功,以及OpenAI提高芯片產量加速AI發(fā)展的原因。然而,我認為DeepMind與其他組織有所不同,始終將基礎研究放在首位。在Google Research、Brain和DeepMind等部門,我們在過去10年的開創(chuàng)性工作中發(fā)明了多數機器學習技術。這是我們的核心競爭力,我們擁有大量其他機構可能不具備的資深研究科學家。相較之下,其他公司更注重工程研究以推動科學進步。
問:你認為擴展規(guī)模不再是AI發(fā)展唯一途徑?
哈薩比斯:我堅信,實現通用AI(AGI)需要更多技術創(chuàng)新和規(guī)模擴展。雖然規(guī)模擴展仍在繼續(xù),并且沒有看到任何停止的跡象,但我們不能僅依賴它獲得新能力,如規(guī)劃、工具使用或類主體行為,這需技術創(chuàng)新實現。我們還需在計算本身探索。我們希望在小型問題上實驗,這只需幾天訓練。但發(fā)現小型規(guī)模上有效的方法在擴展時不適用,所以我們需找到平衡點,推斷可能適用于更大規(guī)模的方法時進行擴展。
問:這是否意味著未來AI公司競爭是否將圍繞工具使用和智能體展開,即AI可以做很多事,不僅限于聊天?據稱OpenAI正在研究這個問題。
哈薩比斯:可能。我們在這條路上探索了很長時間。自AlphaGo以來,智能體、強化學習和規(guī)劃一直是我們的主要工作。2016年,DeepMind開發(fā)了一種突破性算法,能解決復雜問題和玩復雜游戲。我們正在重新審視很多想法,并考慮將AlphaGo的能力與這些大模型結合。內省和規(guī)劃能力將有助于消除幻覺等問題。
問:如何引導模型使其更具邏輯性?
哈薩比斯:這是一個大領域,我們投入了大量時間和精力。我們認為,當系統(tǒng)開始變得更像智能主體時,這將是它們能力的重大進步。我們在這方向投入了大量資金,其他公司也一樣。我一直在安全論壇和會議上說,這是一個大改變。一旦我們讓類似智能體的系統(tǒng)工作起來,人工智能就會與目前系統(tǒng)(基本上是被動問答系統(tǒng))大不同,因為它們會變成主動型學習者。當然,它們也會更有用,因為能幫你完成任務。但我們將不得不更加小心。
我一直主張把智能體放到網上之前,用強化的模擬沙盒測試它們。我認為行業(yè)應認真考慮這些系統(tǒng)的出現,并采取措施確保安全性。也許要幾年,也許更早,但這是另一類不同的系統(tǒng)。
問:你提到需要更多時間來測試你們最強模型Gemini Ultra。這是因為模型開發(fā)進度過快,還是因為這類大型模型存在潛在問題?
哈薩比斯:實際上兩方面都有。模型規(guī)模越大,微調時面臨的挑戰(zhàn)越復雜,所需時間越長。更大模型具備更多功能,意味著我們需更全面測試。
值得一提的是,隨著Google DeepMind變成更成熟穩(wěn)定的組織,我們開始嘗試新的發(fā)布策略。我們會提前發(fā)布實驗性功能或模型,并邀請少部分受信任的早期測試者體驗。這樣,我們可以在正式發(fā)布前收集反饋并進行必要的調整。
問:關于安全性問題,你們與英國人工智能安全研究所等政府機構合作進展如何?
哈薩比斯:合作非常順利。雖然我不能透露太多細節(jié),因為這是保密的,但可以確認,他們正在對我們的前沿模型包括Gemini Ultra進行測試。我們將繼續(xù)與他們保持密切合作。
此外,美國也在建立類似人工智能安全機構。這些機構都是在布萊切利公園人工智能安全峰會推動下成立的,旨在審查和監(jiān)管人工智能系統(tǒng),特別是涉及敏感領域如化學、生物、放射性和核武器等。目前系統(tǒng)還沒有強大到足以引發(fā)實質性安全擔憂的程度。但加強政府、行業(yè)和學術界在人工智能安全方面的合作和投入仍非常必要。隨著智能體系統(tǒng)等新型人工智能技術出現,我們可能面臨更多新挑戰(zhàn)和變化。我們會看到漸進式改進,可能有很酷的大改進,但會感覺不同。(小?。?/p>
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )