7月18日消息,這兩天又一件事吵得沸沸揚揚:包括ChatGPT 4o、谷歌Gemini Advanced、Claude 3.5 Sonnet在內(nèi)的很多SOTA大模型王者在回答“9.9和9.11誰更大”的問題時紛紛翻車。這讓大家大跌眼鏡,人工智能還是人工智障的說法再次卷土重來。
360創(chuàng)始人周鴻祎對該熱門話題也發(fā)表了自己的觀點,他認(rèn)為:“不要低估大模型未來發(fā)展的潛力,但是不要高估大模型現(xiàn)在的實力“,”不要因為這個事就對大模型表示失望。這恰恰說明了其實大模型跟人的大腦是非常像的,它并不是萬能的?!?/p>
同時,周鴻祎還解釋了大模型為什么不識數(shù)、并給出了解決大模型不識數(shù)問題的解決方案。
大模型為什么不識數(shù)?
周鴻祎認(rèn)為,大模型現(xiàn)在還是有很多的缺點,不認(rèn)識“9.11和9.9誰大”,就是一個典型的例子。
“看了幾個大模型輸出的答案,差不多都在胡言亂語,為什么呢?”周鴻祎簡單解釋了為什么大模型會認(rèn)為9.1比9.9大。
他認(rèn)為:第一個問題:“其實大模型的全稱叫大語言模型,它首先解決的是對人類自然語言理解的問題。所以大模型把9.9和9.11并沒有當(dāng)成一個數(shù)字來看,而是把它們分成了兩個token。沒有經(jīng)過專門特別的提示和訓(xùn)練,大模型是不懂阿拉伯?dāng)?shù)字,也不懂?dāng)?shù)學(xué),所以大模型是按照一個文字的邏輯來進(jìn)行對比。所以9前面是一樣大的,那么11比9要大,所以就得出來9.11比9.9要大?!?/p>
周鴻祎還舉了個例子:這就好比你小時候上私塾只學(xué)了四書五經(jīng),一點數(shù)學(xué)算數(shù)都沒學(xué)。那出一個這樣的小數(shù)題你當(dāng)然就不會了。
第二個問題就是對提示詞的依賴。也就是說你跟人工智能提要求的時候,如果都是聊天機(jī)器人的界面,你的說法不一樣,那大模型的反應(yīng)是不一樣的。就好像一個問題換了種問法,有時候大模型就很聰明,有時候大模型就很笨。這恰恰說明了通過自然語言跟大模型來交流交互,在有些情況下是一種非常不靠譜的方式。比如也有人說換一種問法大模型就會了,比如說把9.9和9.11放在前面,再問誰大誰小,而不是先問誰大誰小,然后把9.11和9.9放在后面。
怎么解決大模型不識數(shù)的問題?
“這也恰恰說明了光靠大模型是解決不了企業(yè)政府的很多實際的工作和生產(chǎn)上的問題,需要和其他技術(shù)相結(jié)合“,周鴻祎認(rèn)為,其實解決這個問題也很簡單,有三種做法。
第一種方法,就是要教會大模型數(shù)學(xué),就要把很多數(shù)學(xué)知識進(jìn)行專門的訓(xùn)練。就像我們小學(xué)上了語文之后,還要學(xué)算數(shù)一樣。有了這樣專門的訓(xùn)這樣的專業(yè)模型,就可以正確的回答這個問題。
第二個解決問題的方法,是像360AI搜索一樣,就利用搜索和知識推理相結(jié)合。
周鴻祎稱,剛才試看了一下360大模型的回答,實際上也是不準(zhǔn)確的。但是跟360AI搜索結(jié)合在一起,通過全網(wǎng)搜索類似的答案,再加上大模型的理解,相當(dāng)于是現(xiàn)找答案,然后現(xiàn)教大模型,那么答案就是對的。這也就是搜索增強(qiáng)或者知識對齊。
第三種方法實際上調(diào)用API。比如說如果大模型能夠識別這是一個數(shù)學(xué)題,但是它不會解。沒關(guān)系,利用函數(shù)調(diào)用的方式去調(diào)比如說一個數(shù)學(xué)網(wǎng)站的API,比如說有很多類似的這種數(shù)學(xué)網(wǎng)站,可以準(zhǔn)確的告訴你9.9和9.11誰大誰小。
還有一種最簡單的做法,為什么大模型現(xiàn)在都要學(xué)編程呢?因為編程就好比是大模型給了一個計算器,那你出了一道數(shù)學(xué)題,雖然我不會回答,但是如果我手上有個計算器,那我就能回答。所以有了大模型會懂得調(diào)pythons語言,用pythons來寫一個程序,讓pythons來比一下9.11和9.9誰大。當(dāng)然了,編程的程序結(jié)果如果是對的那也會得出正確的答案。
最后,周鴻祎給出了三點總結(jié):
第一,大模型對自然語言的理解是它的基礎(chǔ)。很多數(shù)學(xué)物理化學(xué)的這些專業(yè)知識他并不了解,這個很正常。大家不要驚訝,要學(xué)習(xí)這些知識還需要專業(yè)的模型訓(xùn)練。
第二,利用搜索可以把人類擁有的解題的經(jīng)驗和知識的推理相結(jié)合,實際上是一種可以單獨用大模型更有效的一種方法。
第三,大模型作為一個聊天機(jī)器人,實際上直接在業(yè)務(wù)和工作上直接用是不現(xiàn)實的,一定需要給他增加各種能力的補(bǔ)強(qiáng)。比如說它能調(diào)用其他的工具,能自己編程序來算。實際上人類也是這樣,如果給了人類一個很復(fù)雜的一堆數(shù)據(jù),讓人類憑著自己的頭腦去總結(jié)數(shù)據(jù)的規(guī)律,人類也往往回答不正確。但是人類如果會編程序,或者手邊有一個什么計算軟件,那么用這個計算軟件和工具就可以幫助人類得到正確的答案。所以大模型也需要外部工具的幫助。
”所以不要因為這個事兒對大模型表示失望。這恰恰說明了其實大模型跟人的大腦是非常像的,它并不是萬能的。人今天之所以能做很多工作,人本身是得到了很多第三方工具的幫助,包括計算機(jī),包括計算器?!爸茗櫟t強(qiáng)調(diào),”希望不要因為這個事兒喪失你對人工智能的信心?!?br>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )