研究人員仍然難以理解通過模仿互聯(lián)網(wǎng)文本進(jìn)行訓(xùn)練的AI模型如何執(zhí)行高級(jí)任務(wù),比如運(yùn)行代碼、玩游戲和試圖破壞婚姻
還沒有人知道ChatGPT及其人工智能表兄弟將如何改變世界,一個(gè)原因是還沒有人真正知道它們內(nèi)部發(fā)生了什么。這些系統(tǒng)的某些能力遠(yuǎn)遠(yuǎn)超出了它們的訓(xùn)練范圍——甚至它們的發(fā)明者對(duì)此也感到困惑。越來越多的測(cè)試表明,這些AI系統(tǒng)開發(fā)出內(nèi)在的對(duì)真實(shí)世界的模型,有點(diǎn)像我們自己的大腦,盡管機(jī)器的技術(shù)不同。
布朗大學(xué)的Ellie Pavlick是正在填補(bǔ)這一解釋空白的研究人員之一,她說:“為了使它們變得更好、更安全或者任何我們想對(duì)它們做的事情,如果我們不理解它們的工作方式,這似乎對(duì)我來說是一個(gè)荒謬的要求?!?/p>
在一個(gè)層面上,她和她的同事完全理解GPT(代表“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”)和其他大型語言模型,或者LLM。這些模型依賴于一種稱為神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)系統(tǒng)。這樣的網(wǎng)絡(luò)結(jié)構(gòu)大致模仿了人腦中相互連接的神經(jīng)元。這些程序的代碼相對(duì)簡(jiǎn)單,只占了幾個(gè)屏幕。它建立了一個(gè)自動(dòng)更正算法,根據(jù)對(duì)數(shù)以吉字節(jié)的互聯(lián)網(wǎng)文本的艱苦統(tǒng)計(jì)分析,選擇最有可能完成一段文字的詞語。額外的訓(xùn)練確保系統(tǒng)將以對(duì)話形式呈現(xiàn)其結(jié)果。從這個(gè)意義上說,它所做的只是反芻它學(xué)到的東西——用華盛頓大學(xué)語言學(xué)家Emily Bender的話說,它是一個(gè)“隨機(jī)重復(fù)”。 (這并不是貶低了已故的非洲灰鸚鵡Alex,它理解顏色、形狀和“面包”等概念,并有意地使用對(duì)應(yīng)的詞語。)但是LLM也成功通過了律師資格考試,寫了一首關(guān)于希格斯玻色子的十四行詩,并試圖斷絕用戶的婚姻。幾乎沒有人期望一個(gè)相當(dāng)直接的自動(dòng)更正算法獲得如此廣泛的能力。
GPT和其他AI系統(tǒng)執(zhí)行它們沒有接受訓(xùn)練的任務(wù),賦予它們“新出現(xiàn)的能力”,這就連對(duì)LLM炒作持懷疑態(tài)度的研究人員也感到驚訝。圣達(dá)菲研究所的AI研究員梅拉尼·米切爾說:“我不知道它們是如何做到的,或者它們是否能像人類那樣更廣泛地做到這一點(diǎn)——但它們挑戰(zhàn)了我的觀點(diǎn)。”
蒙特利爾大學(xué)的AI研究員Yoshua Bengio說:“它當(dāng)然不僅僅是一個(gè)隨機(jī)重復(fù),它肯定建立了對(duì)世界的某種表征——盡管我不認(rèn)為它與人類建立內(nèi)在世界模型的方式非常相似?!?/p>
在3月紐約大學(xué)舉行的一次會(huì)議上,哥倫比亞大學(xué)的哲學(xué)家Rapha?l Millière提出了LLM能力的另一個(gè)令人震驚的例子。這些模型已經(jīng)展示了編寫計(jì)算機(jī)代碼的能力,這令人印象深刻但并不太令人驚訝,因?yàn)榛ヂ?lián)網(wǎng)上有大量代碼可以模仿。 Millière進(jìn)一步展示了GPT也可以執(zhí)行代碼。這位哲學(xué)家輸入了一個(gè)程序來計(jì)算斐波那契數(shù)列的第83個(gè)數(shù)。他說:“這是非常高度的多步推理。”這個(gè)機(jī)器人算對(duì)了。然而,當(dāng)Millière直接要求第83個(gè)斐波那契數(shù)時(shí),GPT算錯(cuò)了,這表明該系統(tǒng)不僅僅是在重復(fù)互聯(lián)網(wǎng)。相反,它正在執(zhí)行自己的計(jì)算以得出正確答案。
盡管LLM在計(jì)算機(jī)上運(yùn)行,但它本身不是計(jì)算機(jī)。它缺乏必要的計(jì)算元素,如工作記憶。GPT的發(fā)明者OpenAI隱含地承認(rèn),GPT本身不應(yīng)該能運(yùn)行代碼,因此在回答查詢時(shí)推出了一個(gè)專門的插件——一個(gè)ChatGPT可以使用的工具——允許它運(yùn)行代碼。但Millière的演示中沒有使用這個(gè)插件。相反,他假設(shè)這臺(tái)機(jī)器通過利用其根據(jù)上下文解釋詞語的機(jī)制來即興創(chuàng)作記憶——一個(gè)類似于自然選擇現(xiàn)有能力以適應(yīng)新功能的情況。
這種即興的能力表明,LLM的內(nèi)在復(fù)雜性遠(yuǎn)遠(yuǎn)超出了膚淺的統(tǒng)計(jì)分析。研究人員發(fā)現(xiàn),這些系統(tǒng)似乎對(duì)所學(xué)知識(shí)有了真正的理解。在5月國(guó)際學(xué)習(xí)表示會(huì)議上提出的一項(xiàng)研究中,哈佛大學(xué)博士生Kenneth Li及其AI研究者同事——麻省理工學(xué)院的Aspen K. Hopkins、東北大學(xué)的David Bau以及哈佛大學(xué)的Fernanda Viégas、Hanspeter Pfister和Martin Wattenberg——啟動(dòng)了自己的小型GPT神經(jīng)網(wǎng)絡(luò)副本,以便研究其內(nèi)部工作。他們通過以文本形式輸入大量的黑白棋走法來訓(xùn)練它。他們的模型變成了一個(gè)近乎完美的玩家。
為了研究神經(jīng)網(wǎng)絡(luò)如何編碼信息,他們采用了Yoshua Bengio和Guillaume Alain(也在蒙特利爾大學(xué))在2016年設(shè)計(jì)的技術(shù)。他們創(chuàng)建了一個(gè)微型的“探測(cè)器”網(wǎng)絡(luò)來逐層分析主網(wǎng)絡(luò)。Li將這種方法比作神經(jīng)科學(xué)方法。他說:“這與當(dāng)我們?cè)谌四X中放置電探針相似?!痹贏I的情況下,探測(cè)器顯示其“神經(jīng)活動(dòng)”與黑白棋棋盤的表示相匹配,盡管是卷積形式。為了確認(rèn)這一點(diǎn),研究人員以相反方向運(yùn)行探測(cè)器,將信息植入網(wǎng)絡(luò)中——例如,將游戲中的一個(gè)黑色標(biāo)記翻轉(zhuǎn)為白色。Li說:“基本上我們黑進(jìn)了這些語言模型的大腦?!本W(wǎng)絡(luò)相應(yīng)地調(diào)整了走子。研究人員得出結(jié)論,它玩黑白棋的方式與人類大致相同:在“心靈之眼”中保持一個(gè)棋盤,并使用這個(gè)模型來評(píng)估走子。Li說,他認(rèn)為這個(gè)系統(tǒng)之所以學(xué)會(huì)這項(xiàng)技能,是因?yàn)樗菍?duì)訓(xùn)練數(shù)據(jù)最簡(jiǎn)潔的描述。他補(bǔ)充說:“如果給你一大堆游戲腳本,試圖找出其后的規(guī)則是最好的壓縮方式?!?/p>
從語言中提取其潛在意義的能力不僅限于簡(jiǎn)單的游戲走子;它也出現(xiàn)在對(duì)話中。麻省理工學(xué)院的Belinda Li(與Kenneth Li無親屬關(guān)系)、Maxwell Nye和Jacob Andreas研究了玩基于文本的冒險(xiǎn)游戲的網(wǎng)絡(luò)。他們輸入諸如“鑰匙在寶箱里”之類的句子,然后是“你拿起鑰匙”。使用探測(cè)器,他們發(fā)現(xiàn)網(wǎng)絡(luò)內(nèi)部編碼了與“箱子”和“你”對(duì)應(yīng)的變量,每個(gè)變量都具有擁有鑰匙與否的屬性,并逐句更新這些變量。該系統(tǒng)本身并不知道什么是箱子或鑰匙, yet它獲取了這個(gè)任務(wù)所需的概念。Belinda Li說:“模型內(nèi)部隱藏著某種狀態(tài)的表示?!?/p>
研究人員對(duì)LLM從文本中學(xué)習(xí)的能力感到驚嘆。例如,Pavlick和她當(dāng)時(shí)的博士生Roma Patel發(fā)現(xiàn),這些網(wǎng)絡(luò)從互聯(lián)網(wǎng)文本中吸收顏色描述,并構(gòu)建內(nèi)部顏色表示。當(dāng)它們看到“紅色”這個(gè)詞時(shí),它們不僅將其處理為一個(gè)抽象符號(hào),還將其作為一個(gè)與赤褐色、絳紅色、薔薇色等有某種關(guān)系的概念。展示這一點(diǎn)有些棘手。研究人員沒有向網(wǎng)絡(luò)插入探測(cè)器,而是研究了它對(duì)一系列文本提示的響應(yīng)。為了檢查它是否僅僅在重復(fù)網(wǎng)上參考的顏色關(guān)系,他們?cè)噲D通過告訴它紅色實(shí)際上是綠色來誤導(dǎo)系統(tǒng)——類似以前的哲學(xué)思想實(shí)驗(yàn),一個(gè)人的紅色是另一個(gè)人的綠色。但是該系統(tǒng)的顏色評(píng)估改變得恰當(dāng),以維持正確的關(guān)系,而不是重復(fù)錯(cuò)誤答案。
從這個(gè)想法出發(fā),即為了執(zhí)行其自動(dòng)校正功能,系統(tǒng)尋求訓(xùn)練數(shù)據(jù)背后的邏輯,微軟研究院的機(jī)器學(xué)習(xí)研究員Sébastien Bubeck認(rèn)為,數(shù)據(jù)范圍越廣,系統(tǒng)發(fā)現(xiàn)的規(guī)則就越普遍。他說:“也許我們看到如此巨大的飛躍,是因?yàn)槲覀冞_(dá)到了數(shù)據(jù)多樣性,大到唯一的潛在原則就是智能存在產(chǎn)生了它們。所以解釋所有的 數(shù)據(jù)的唯一方法就是[模型]變得智能?!?/p>
除了提取語言的潛在含義之外,LLM還可以即時(shí)學(xué)習(xí)。在AI領(lǐng)域,“學(xué)習(xí)”這個(gè)術(shù)語通常保留給開發(fā)人員將神經(jīng)網(wǎng)絡(luò)暴露給吉字節(jié)的數(shù)據(jù)并調(diào)整其內(nèi)部連接的計(jì)算密集型過程。當(dāng)你向ChatGPT輸入查詢時(shí),網(wǎng)絡(luò)應(yīng)該是固定的;與人類不同,它不應(yīng)該繼續(xù)學(xué)習(xí)。所以,LLM確實(shí)從用戶的提示中學(xué)習(xí)這個(gè)事實(shí)來作為一個(gè)驚喜,這種能力被稱為上下文學(xué)習(xí)。新加坡人工智能公司SingularityNET的創(chuàng)始人Ben Goertzel說:“這是一種以前不太被理解存在的不同學(xué)習(xí)?!?/p>
一個(gè)LLM如何學(xué)習(xí)的例子來自人類與ChatGPT等聊天機(jī)器人的互動(dòng)方式。你可以給系統(tǒng)提供如何響應(yīng)的示例,它會(huì)服從。其輸出由它剛剛看到的幾千個(gè)詞決定。給定這些詞,它所做的由其固定的內(nèi)部連接決定——但詞序列仍提供了一定的適應(yīng)性。整個(gè)網(wǎng)站致力于“越獄”提示,這可以克服系統(tǒng)的“警戒線”——止步它不告訴用戶如何制造煙斗炸彈之類的限制——通常是指示模型假裝成一個(gè)沒有警戒線的系統(tǒng)。有些人出于可疑目的使用越獄,而其他人則利用它來引出更有創(chuàng)意的答案。佛羅里達(dá)大西海岸大學(xué)機(jī)器感知與認(rèn)知機(jī)器人實(shí)驗(yàn)室的共同主任William Hahn說:“我會(huì)說,它在回答科學(xué)問題方面會(huì)更好”,而不僅僅是直接詢問它,沒有特殊的越獄提示?!八趯W(xué)術(shù)研究上會(huì)更好?!?/p>
另一種上下文學(xué)習(xí)發(fā)生在“思維鏈”提示中,這意味著要求網(wǎng)絡(luò)詳細(xì)說明其推理的每一步——這種策略使其在需要多步邏輯或算術(shù)問題上表現(xiàn)更好。(但Millière的例子如此令人驚訝的一點(diǎn)是,網(wǎng)絡(luò)在沒有任何這樣的提示的情況下就找到了斐波那契數(shù)。)
2022年,谷歌研究院和瑞士蘇黎世聯(lián)邦理工學(xué)院的一個(gè)團(tuán)隊(duì)——約翰內(nèi)斯·馮·奧斯瓦爾德、艾文·尼克拉松、埃托爾·蘭達(dá)佐、若奧·薩克拉門托、亞歷山大·莫德文采夫、安德烈·日莫金和馬克思·弗拉季米羅夫——展示了上下文學(xué)習(xí)遵循與標(biāo)準(zhǔn)學(xué)習(xí)相同的基本計(jì)算過程,也就是所謂的梯度下降。這個(gè)過程不是程序化的;系統(tǒng)是在沒有幫助的情況下發(fā)現(xiàn)的。谷歌研究院副總裁Blaise Agüera y Arcas說:“這需要是一個(gè)學(xué)習(xí)到的技能。”事實(shí)上,他認(rèn)為L(zhǎng)LM可能還有一些潛在的沒人發(fā)現(xiàn)的能力。他說:“每次我們?yōu)樾碌目闪炕哪芰M(jìn)行測(cè)試時(shí),我們都會(huì)發(fā)現(xiàn)它?!?/p>
盡管LLM有足夠的盲點(diǎn)不符合人工普適智能或AGI的條件——這是機(jī)器達(dá)到動(dòng)物大腦資源fulness的術(shù)語——但這些新出現(xiàn)的能力向一些研究人員表明,科技公司距離AGI比樂觀主義者猜想的還要接近。新加坡人工智能公司SingularityNET的創(chuàng)始人Ben Goertzel 3月在佛羅里達(dá)大西海岸大學(xué)舉行的深度學(xué)習(xí)會(huì)議上說:“它們是我們距離AGI可能不遠(yuǎn)的間接證據(jù)?!?OpenAI的插件給ChatGPT提供了一個(gè)有點(diǎn)像人腦的模塊化架構(gòu)。麻省理工學(xué)院研究員Anna Ivanova說:“將GPT-4[ChatGPT的最新LLM版本]與各種插件組合可能是通向類人特化功能的途徑?!?/p>
與此同時(shí),研究人員擔(dān)心他們研究這些系統(tǒng)的窗口可能正在關(guān)閉。OpenAI沒有透露GPT-4的設(shè)計(jì)和訓(xùn)練細(xì)節(jié),部分原因是它與谷歌等公司以及其他國(guó)家陷入競(jìng)爭(zhēng)。 M.I.T.的理論物理學(xué)家Dan Roberts說,他將物理學(xué)的技術(shù)應(yīng)用于理解AI:“行業(yè)的開放研究可能會(huì)減少,事情會(huì)變得更加封閉和圍繞產(chǎn)品建設(shè)組織。”
圣達(dá)菲研究所的Mitchell說,這種不透明不僅傷害研究人員,還會(huì)阻礙了解匆忙采用AI技術(shù)的社會(huì)影響的努力。她說:“關(guān)于這些模型的透明度是確保安全的最重要事情。”
本文譯自 Scientific American,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )