7月18日消息,這兩天又一件事吵得沸沸揚揚:包括ChatGPT 4o、谷歌Gemini Advanced、Claude 3.5 Sonnet在內(nèi)的很多SOTA大模型王者在回答“9.9和9.11誰更大”的問題時紛紛翻車。這讓大家大跌眼鏡,人工智能還是人工智障的說法再次卷土重來。
360創(chuàng)始人周鴻祎對該熱門話題也發(fā)表了自己的觀點,他認為:“不要低估大模型未來發(fā)展的潛力,但是不要高估大模型現(xiàn)在的實力“,”不要因為這個事就對大模型表示失望。這恰恰說明了其實大模型跟人的大腦是非常像的,它并不是萬能的?!?/p>
同時,周鴻祎還解釋了大模型為什么不識數(shù)、并給出了解決大模型不識數(shù)問題的解決方案。
大模型為什么不識數(shù)?
周鴻祎認為,大模型現(xiàn)在還是有很多的缺點,不認識“9.11和9.9誰大”,就是一個典型的例子。
“看了幾個大模型輸出的答案,差不多都在胡言亂語,為什么呢?”周鴻祎簡單解釋了為什么大模型會認為9.1比9.9大。
他認為:第一個問題:“其實大模型的全稱叫大語言模型,它首先解決的是對人類自然語言理解的問題。所以大模型把9.9和9.11并沒有當成一個數(shù)字來看,而是把它們分成了兩個token。沒有經(jīng)過專門特別的提示和訓練,大模型是不懂阿拉伯數(shù)字,也不懂數(shù)學,所以大模型是按照一個文字的邏輯來進行對比。所以9前面是一樣大的,那么11比9要大,所以就得出來9.11比9.9要大?!?/p>
周鴻祎還舉了個例子:這就好比你小時候上私塾只學了四書五經(jīng),一點數(shù)學算數(shù)都沒學。那出一個這樣的小數(shù)題你當然就不會了。
第二個問題就是對提示詞的依賴。也就是說你跟人工智能提要求的時候,如果都是聊天機器人的界面,你的說法不一樣,那大模型的反應是不一樣的。就好像一個問題換了種問法,有時候大模型就很聰明,有時候大模型就很笨。這恰恰說明了通過自然語言跟大模型來交流交互,在有些情況下是一種非常不靠譜的方式。比如也有人說換一種問法大模型就會了,比如說把9.9和9.11放在前面,再問誰大誰小,而不是先問誰大誰小,然后把9.11和9.9放在后面。
怎么解決大模型不識數(shù)的問題?
“這也恰恰說明了光靠大模型是解決不了企業(yè)政府的很多實際的工作和生產(chǎn)上的問題,需要和其他技術相結合“,周鴻祎認為,其實解決這個問題也很簡單,有三種做法。
第一種方法,就是要教會大模型數(shù)學,就要把很多數(shù)學知識進行專門的訓練。就像我們小學上了語文之后,還要學算數(shù)一樣。有了這樣專門的訓這樣的專業(yè)模型,就可以正確的回答這個問題。
第二個解決問題的方法,是像360AI搜索一樣,就利用搜索和知識推理相結合。
周鴻祎稱,剛才試看了一下360大模型的回答,實際上也是不準確的。但是跟360AI搜索結合在一起,通過全網(wǎng)搜索類似的答案,再加上大模型的理解,相當于是現(xiàn)找答案,然后現(xiàn)教大模型,那么答案就是對的。這也就是搜索增強或者知識對齊。
第三種方法實際上調(diào)用API。比如說如果大模型能夠識別這是一個數(shù)學題,但是它不會解。沒關系,利用函數(shù)調(diào)用的方式去調(diào)比如說一個數(shù)學網(wǎng)站的API,比如說有很多類似的這種數(shù)學網(wǎng)站,可以準確的告訴你9.9和9.11誰大誰小。
還有一種最簡單的做法,為什么大模型現(xiàn)在都要學編程呢?因為編程就好比是大模型給了一個計算器,那你出了一道數(shù)學題,雖然我不會回答,但是如果我手上有個計算器,那我就能回答。所以有了大模型會懂得調(diào)pythons語言,用pythons來寫一個程序,讓pythons來比一下9.11和9.9誰大。當然了,編程的程序結果如果是對的那也會得出正確的答案。
最后,周鴻祎給出了三點總結:
第一,大模型對自然語言的理解是它的基礎。很多數(shù)學物理化學的這些專業(yè)知識他并不了解,這個很正常。大家不要驚訝,要學習這些知識還需要專業(yè)的模型訓練。
第二,利用搜索可以把人類擁有的解題的經(jīng)驗和知識的推理相結合,實際上是一種可以單獨用大模型更有效的一種方法。
第三,大模型作為一個聊天機器人,實際上直接在業(yè)務和工作上直接用是不現(xiàn)實的,一定需要給他增加各種能力的補強。比如說它能調(diào)用其他的工具,能自己編程序來算。實際上人類也是這樣,如果給了人類一個很復雜的一堆數(shù)據(jù),讓人類憑著自己的頭腦去總結數(shù)據(jù)的規(guī)律,人類也往往回答不正確。但是人類如果會編程序,或者手邊有一個什么計算軟件,那么用這個計算軟件和工具就可以幫助人類得到正確的答案。所以大模型也需要外部工具的幫助。
”所以不要因為這個事兒對大模型表示失望。這恰恰說明了其實大模型跟人的大腦是非常像的,它并不是萬能的。人今天之所以能做很多工作,人本身是得到了很多第三方工具的幫助,包括計算機,包括計算器?!爸茗櫟t強調(diào),”希望不要因為這個事兒喪失你對人工智能的信心。“
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 百川智能發(fā)布全鏈路領域增強金融大模型Baichuan4-Finance,整體準確率領先GPT-4o近20%
- 央視曝光未成年人可輕松繞開“防沉迷”系統(tǒng):租號玩游戲最低僅需4元
- 知乎發(fā)布2024“年度十問”:《黑神話:悟空》、諾貝爾物理學獎等問題在列
- 李斌回應螢火蟲三重奏大燈設計:沒有參考iPhone
- 一周熱點匯總:特斯拉下月量產(chǎn)改款Model Y,阿里“甩賣”銀泰
- 蔚來第三品牌firefly螢火蟲首款車型正式亮相 預售價14.88萬元
- 首發(fā)線控轉(zhuǎn)向等多項技術 蔚來旗艦車型ET9正式上市:78.8萬元起
- 網(wǎng)信辦:從嚴打擊網(wǎng)上侵害未成年人合法權益行為
- 豆包大模型全面升級,相關概念股瘋漲,字節(jié)發(fā)布緊急警示
- “小紅書封號”沖上熱搜,小米YU7無偽裝實車首次曝光
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。