自深度學(xué)習(xí)(Deep Learning)技術(shù)問世后,許多人都相信這將是帶領(lǐng)我們逐步走入“通用 AI”(General AI)夢想的關(guān)鍵,企業(yè)領(lǐng)導(dǎo)者也都在演講中談及AI時代將會如何來臨,然而事情真的如此順利嗎?
?近期,計算機視覺與AI專家Filip Piekniewski發(fā)表了一篇《AI凜冬將至》的文章,該文章一經(jīng)發(fā)表隨即引來熱議。
該文主要對深度學(xué)習(xí)的炒作提出了批評,認(rèn)為這項技術(shù)并不具有革命性,而且正面臨發(fā)展瓶頸。各大公司對AI的興趣其實正在收斂,人工智能的又一次凜冬可能要來了。
由“革命”到“進化”
AI未來只是人類腦補的結(jié)果
在對AI技術(shù)的判斷上,人類再次發(fā)揮了自身的想象力。
Piekniewski指出,在ImageNet獲得不錯的解決方案時,許多該領(lǐng)域的知名研究人員都積極的受訪并采用相同的論調(diào)表示:人們正處在一場巨大的革命前面,從現(xiàn)在開始,所有AI發(fā)展只會加速。
然而許多年過去了,期待中的加速并未發(fā)生,這些受訪的研究人員也不再那么活躍的鼓吹相同的想法,隨著情緒降溫,他們開始不將深度學(xué)習(xí)形容為終極演算法,AI相關(guān)論文也從“革命”一詞逐漸改變?yōu)椤斑M化”。
相較于前者,進化聽起來要溫和且緩慢許多,而這似乎也更為符合 AI 發(fā)展的現(xiàn)實情況。
包含OpenAI在內(nèi),許多知名研究機構(gòu)近期都開始變得相對理性,自AlphaGo Zoro問世后,DeepMind也并未再展現(xiàn)出更多令人驚喜的事物,甚至一些論述指出,Google其實不太確定該如何處理DeepMind,因為團隊得出的研究成果明顯不如原先預(yù)期的“那么實際”。
?另外,一些大型科技企業(yè)的杰出AI研究人員,都開始從實際操作的研究負(fù)責(zé)人轉(zhuǎn)任至協(xié)助游說政府資助的職務(wù)上,這種轉(zhuǎn)變跡象顯示,像Google、Facebook這些公司對AI研究的興趣實際上正在慢慢收斂。
與此同時,深度學(xué)習(xí)的瓶頸正在顯現(xiàn),自動駕駛(Self-Driving)技術(shù)在現(xiàn)實世界的實際應(yīng)用便是最明顯的例子,Nvidia、Tesla在發(fā)展自動駕駛技術(shù)上都遇到了困難,Uber自動駕駛汽車在亞利桑那州則遭遇死亡車禍,這些都從側(cè)面展現(xiàn)了AI技術(shù)的缺陷。
除了能明顯看出系統(tǒng)設(shè)計的問題之外,自動駕駛系統(tǒng)更是花費了很長一段時間,去試圖判斷眼前的物體究竟是什么,而不是做出最重要、也是邏輯上唯一該做的決策:確保不會碰撞它。
?這與人對危機的處理方式并不相同。盡管人們經(jīng)常在交通事故后說出當(dāng)下的判斷標(biāo)準(zhǔn),比如“我看到前方有行人所以向左轉(zhuǎn)避開”,但許多心理物理學(xué)都曾經(jīng)提出解釋,人們往往是在當(dāng)下透過神經(jīng)系統(tǒng)迅速將其判斷為障礙并采取行動,等一小段時間過后才會意識到發(fā)生了什么。
這種生存機制來源已久,數(shù)十億年來都保護著我們的安全,而在駕駛車輛時,人們自然也會用到這樣的原始反應(yīng),由于這些反應(yīng)并非專為駕駛行為而產(chǎn)生,自然也會因為這些反射神經(jīng)引發(fā)一些事故。
然而整體上來說,這種對空間、速度及周遭警覺的原始能力,對于人類安全仍舊有著許多保障。
只是這種能力大多無法用言語來描述,也難以進行測量,這使得研究人員難以對機器進行這方面的系統(tǒng)改良,Nvidia過去所提出的End-to-End方法雖然理論上可行,但從現(xiàn)實一些測試中我們也可知道情況并非這么簡單。
?神經(jīng)網(wǎng)絡(luò)之父Geoffrey Hinton曾承認(rèn),反向傳播法(Back-Propagation)似乎已走入死胡同,相關(guān)研究可能得從頭開始展開。
這些發(fā)展困境都表明著AI發(fā)展的寒冬即將來臨,雖然不太可能準(zhǔn)確地預(yù)測出發(fā)生的時間點,但某些明顯的跡象可以肯定,它將會出現(xiàn)在某個時刻,然而因為外界對于AI的呼聲太過強烈,以至于人們很容易忽略掉這些征兆。
現(xiàn)實充滿更多不可預(yù)測性
習(xí)以為常的盲區(qū)應(yīng)該是AI的核心
雖然圖靈為人工智能定下了最基礎(chǔ)的定義,但如今我們更多地被圖靈的定義給束縛住了。
現(xiàn)實不是預(yù)先設(shè)定的游戲,如果說有什么不同的話,現(xiàn)實是規(guī)則不斷變化的游戲的無限集合,任何時候出現(xiàn)了重大發(fā)展,游戲規(guī)則都要重寫,然后所有玩家都得跟著調(diào)整否則就會死掉。
相比圖靈,莫拉維克悖論更應(yīng)該被視為AI發(fā)展的核心問題。莫拉維克悖論是由人工智能和機器人學(xué)者所發(fā)現(xiàn)的一個和常識相佐的現(xiàn)象。
和傳統(tǒng)假設(shè)不同,人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。
這個理念是由漢斯?莫拉維克、布魯克斯、馬文?閔斯基等人于80年代所闡釋。如莫拉維克所寫:“要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當(dāng)困難甚至是不可能的?!?/p> ?
如果我們希望解決莫拉維克悖論,就要模仿生物體純粹靠觀察世界來學(xué)習(xí)的能力,而不是需要標(biāo)簽的輔助,這個想法可以通過開發(fā)對未來事件做出臨時預(yù)測的系統(tǒng)來實現(xiàn),然后通過將其預(yù)測與實際情況進行對比來學(xué)習(xí)。
預(yù)測性視覺模型是朝著這個方向邁出的一步,但肯定不是最后一步。
最顯而易見的通常是我們最容易忽略的,也是最為重要的。常識的困難在于它對我們實在是太明顯了,以至于非常難以用語言表達出來進而給數(shù)據(jù)打上標(biāo)簽。對于一切“明顯”的東西我們存在著巨大盲點。
因此我們無法教計算機常識,這不僅因為這么做可能不切實際,但更根本的是我們甚至都沒意識到常識是什么。只有在我們的機器人做了某件極其愚蠢的事情之后我們才意識到這一點。
現(xiàn)實不是游戲。如果說有什么不同的話,現(xiàn)實是規(guī)則不斷變化的隨機事件的無限集合。任何時候出現(xiàn)了重大發(fā)展,規(guī)則都要重寫,然后所有參與者都得跟著調(diào)整否則就會死掉。
因此,我們極度需要跳出圖靈框架,從人性和意識的角度去理解“智能”,而不是一味沉浸在代碼、網(wǎng)絡(luò)的世界里,這樣的人工智能才有未來。
【科技云報道原創(chuàng)】微信公眾賬號:科技云報道
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準(zhǔn)AI機器人
- 微信零錢通新政策:銀行卡轉(zhuǎn)入資金提現(xiàn)免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領(lǐng)先技術(shù)與深度整合是關(guān)鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關(guān)注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯(lián)系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關(guān)注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關(guān)注
- 賽力斯發(fā)布聲明:未與任何伙伴聯(lián)合開展人形機器人合作
- 賽力斯觸及漲停,汽車整車股盤初強勢拉升
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。