極客網(wǎng)·極客觀察2月27日 最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它們都宣稱模型已經(jīng)具備真正的推理能力,也就是人類解決問題時運用的思維方式,但問題在于:AI大模型所說的推理真的和人一樣嗎?
現(xiàn)在的模型可以將復雜問題分解成小問題,然后逐步解決小問題再給出回應(yīng),業(yè)界將這個過程稱為“思維鏈推理”。這些模型有時表現(xiàn)讓人驚嘆,可以解決邏輯謎題和數(shù)學難題,能夠快速寫出完美代碼,但有時面對極為簡單的問題卻顯得蠢笨。
于是乎,反對者認為所謂的“思維鏈推理”根本不算推理,而支持者卻認為是推理,雖然不如人類靈活,但它正在朝著真正的推理前進。
反對者:只是用啟發(fā)式原則猜測答案
科學家一直在研究人腦是如何運行的,目前大家一致認為大腦存在多種不同的推理類型。
推理有演繹推理,即從一個一般性的陳述出發(fā),得出一個具體的結(jié)論。還有歸納推理,利用具體的觀察結(jié)果來做出更廣泛的概括。除此還有類比推理、因果推理、常識推理。
與人腦推理相比,目前的AI推理還很狹隘。
圣塔菲研究所(SFI,Santa Fe Institute,SFI)教授梅蘭妮·米切爾(Melanie Mitchell)曾在一篇論文中寫道:“從有限的數(shù)學和經(jīng)驗中找到一條規(guī)則或者一套模型,將它應(yīng)用于新的未曾見過的情境中,在現(xiàn)實世界,我們非??粗剡@樣的推理。即使是非常小的孩子,也能從幾個例子中學習并發(fā)現(xiàn)抽象規(guī)則?!?nbsp;
孩子能做到,現(xiàn)在的AI能嗎?許多人持懷疑態(tài)度。
愛丁堡大學技術(shù)哲學家肖恩·瓦洛爾(Shannon Vallor)在談到OpenAI o1時表示:“AI所做的只是一種元擬態(tài)行為(meta-mimicry)?!?nbsp;
什么意思?就是說以前的ChatGPT舊模型會模仿其訓練數(shù)據(jù)中人類所寫的陳述內(nèi)容,新的o1可以模仿人類得出陳述內(nèi)容的過程,雖然o1輸出的結(jié)果會讓人覺得它在推理,但這不是真正意義上的推理。
舉個例子,問ChatGPT一個問題:“1個人帶1匹狼、1只羊、1捆草過河。如果人在場,狼不敢吃羊、羊不敢吃草,可是小河邊的船每次只能讓人帶一種東西過河。那么,如何用最少的渡河次數(shù)把所有東西都帶到河對岸呢?”
雖然o1相比舊版有所改進,但架構(gòu)并未有太大變動,它在回答問題時出現(xiàn)失誤。瓦洛爾認為:“在回答問題失敗時,我們會看到一個事實,即模型并沒有進行真正的推理?!?nbsp;
隨后推出的o3讓米切爾感到驚訝,但她更讓他吃驚的是o3在解決問題時消耗的算力如此巨大。由于OpenAI內(nèi)部運作并不透明,人們無從知曉大模型用這些算力做了什么。如果OpenAI不能做到公開透明,便無法確定模型真的將大問題分解成若干步驟,然后給出一個更完美的整體答案。
去年紐約大學在一篇名為《Let’s Think Dot by Dot》的論文中質(zhì)疑過AI推理,研究人員發(fā)現(xiàn),把思維鏈(Chain-of-Thought,CoT)推理中的具體步驟,替換成毫無意義的“...”(點號),產(chǎn)生的推理結(jié)果也大差不差。
米切爾認為:“AI更像是一個啟發(fā)式原則構(gòu)成的集合,不是推理模型?!眴l(fā)式原則能幫你猜出問題的正確答案,但它并非真正通過思考獲得答案。
又例如,研究人員曾開發(fā)一個視覺模型,用來分析皮膚癌。初看時,模型似乎能判斷皮膚上的斑點是否為惡性病變,但事實證明,在訓練數(shù)據(jù)中惡性斑點照片旁邊往往有了標尺信息,模型只是因為標尺信息的存在將斑點判定為惡性病變,這是一種啟發(fā)式思考。
由此可以懷疑,看起來AI似乎在用“推理”解決問題,但實際上只是在利用“記憶信息”進行啟發(fā)式探索。
支持者:不是純粹推理但也不是背誦
Redwood Research致力于降低人工智能風險,該公司首席科學家瑞安·格林布拉特(Ryan Greenblatt)認為,當前的AI明顯是在進行某種形式的推理。
格林布拉特說:“機器的處理方式不像人類那樣具有普遍性,它們更多依賴記憶和知識,而非人類那樣依靠推理和判斷,但機器仍在進行處理?!?nbsp;
既然AI模型可以解答超出樣本范圍的難題,而且表現(xiàn)出色,就可以說它們是在進行某種推理。
“過河問題”是一個很經(jīng)典的問題,在訓練數(shù)據(jù)中,AI應(yīng)該已經(jīng)學習過很多次。但當用戶提出問題時,AI并沒有給出正確答案,它可能知道答案,只是進行了復雜的不必要的“思考”,人有時也會犯這種錯誤。
格林布拉特舉例說,如果你花一個月時間學習色彩理論,從互補色到不同色調(diào)的心理影響,再到文藝復興時期某些顏料的歷史意義。學完之后參加測試,試題問:“這幅風景畫中為什么要把天空畫成藍色?”你可能會被誤導,寫出極為復雜但沒有必要的答案,比如你可能會說藍色代表神圣的天空,說畫是清晨完成的,象征著新生……實際上答案很簡單:因為天空就是藍色的。
Open Philanthropy分析師阿杰亞·科特拉(Ajeya Cotra)認為,有些活動被人類稱為推理,在這一范疇內(nèi),AI將會表現(xiàn)得越來越好。人類說AI只是在進行“元擬態(tài)”活動,重點不在于“元擬態(tài)”,而在于“只是”。人類的意思可能是它不會對世界產(chǎn)生重大影響,我們離超級人工智能還有很遠,這種斷定值得懷疑。
再比如,在一堂大學物理課上,面對問題時學生的表現(xiàn)參差不齊。有人作弊,直接給出答案。有人是天才,無需思考公式的內(nèi)容,憑借深刻的理解與直覺給出答案。大多學生憑借記憶記住公式,努力思考用哪個公式解答問題。
科特拉認為,現(xiàn)在的AI和大多學生一樣,它會將記憶內(nèi)容與一些推理內(nèi)容結(jié)合起來。AI可能不太聰明,但它很勤奮,能記住無數(shù)方程式。它將強大的記憶與少量理解結(jié)合,找出針對某個問題的方程式組合,然后給出答案。
乍一看,AI和天才學生一樣極為聰明,但細細分析就會發(fā)現(xiàn)答案中的漏洞,盡管如此,并不意味著AI沒有推理。
換句話說,這些模型既不是純粹地進行推理,也不是純粹地進行背誦。
科特拉說:“我認為這是處于兩者之間的一種狀態(tài)。人們對此感到困惑,因為他們想要將其歸入某一類別,要么說是單純的記憶,要么說是真正意義上的深入推理。但實際上,推理的深度是有一定范圍的?!?/p>
結(jié)語:鋸齒狀智能
研究人員用“鋸齒狀智能”這一術(shù)語能描述今天的AI,就是說它既能出色解決一些數(shù)學問題,碰到簡單問題時又會變得愚蠢。
人類總是喜歡將AI的智能與人類智能類比,或者我們應(yīng)該換個角度看待,將人工智能視為“與眾不同”的智能,不要糾結(jié)于“比人類更聰明”或者“比人類更愚笨”。
人工智能正在進化,某一天也許變得無比強大,能夠囊括人類所有的智能,甚至還有余力,這種變革值得期待。(小刀)
- MWC25觀察:移動產(chǎn)業(yè)迎“三變”,華為AI-Centric 5.5G獻“三策”
- AI又進化了,程序員職業(yè)真的到了崩潰邊緣?
- 雷軍拿到1小時首富體驗卡,小米潛力還未完全釋放?
- 深度思考:現(xiàn)在的AI模型真的在進行推理嗎?
- AI重塑硅谷創(chuàng)業(yè)法則:自我造血盈利快,不再依賴風險投資
- 京東“整頓”外賣行業(yè),“良性內(nèi)卷”照進現(xiàn)實
- “卷贏”已死,“共贏”當立!中企出海的生死抉擇
- 2025美國科技企業(yè)繼續(xù)裁員:已裁12000多人,Meta裁了5%
- 電影導演們,準備迎接AI風暴吧!
- ARM與高通業(yè)績預期不樂觀:AI未能拉升PC和手機銷量
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。