對于人工智能(AI)領域來說,2019年堪稱是個異常忙碌的年份。AI進步和登上新聞頭條的速度讓我們的日常生活中充滿了令人敬畏和自豪的時刻。當然,有時候也充斥著惱人的想法,即我們的社會對AI時代的到來準備依然不夠充分。2019年是AI取得重大進步的一年還是幻想破滅的一年?隨著研究人員迅速攻克以前讓人感覺難以企及的基準,我們今天能說這個領域走上了穩(wěn)定的發(fā)展軌道嗎?
在應用數(shù)據(jù)科學合作伙伴公司(Applied Data Science Partners)的幫助下,我們希望后退一步,對2019年的AI活動進行排序和透視。在聚光燈下,重要的是要把一件作品最初吸引人的興趣與它的實際重要性以及它對這個領域的影響分開?;谶@個原因,本文以平行方式敘述2019年的AI故事,并試圖分離它們的意義。下面,就讓我們回顧下2019年AI領域的發(fā)展情況:
強化學習回歸
如果我們選擇用一句話來描述2019年的AI發(fā)展情況,那很可能是:“強化學習(RL)回歸了,而且看起來它會繼續(xù)保持這種趨勢。”
到目前為止,我們中的大多數(shù)人可能都已經(jīng)熟悉有監(jiān)督學習模式:有些人收集了大量的訓練數(shù)據(jù),將它們提供給機器學習算法,讓它提煉出模型,然后幫助我們進行預測和分類。我們中的有些人甚至可能會有這樣的印象,即AI是有監(jiān)督學習的同義詞。然而,它只是我們今天擁有的眾多機器學習類型中的一種。
在強化學習中,代理通過試驗和錯誤來學習,通過與環(huán)境的交互來判斷他們的行為。當涉及多個智能代理時,它們就被認為是一個多智能代理強化學習系統(tǒng)。
這個領域已經(jīng)存在了幾十年,從概念上講,比起有監(jiān)督學習模式,這聽起來更像是一種創(chuàng)造智能的學習機制。然而,直到2015年,英國人工智能初創(chuàng)企業(yè)DeepMind才獲得了吸引力,當時該公司使用Deep Q學習(經(jīng)典強化學習算法與深度神經(jīng)網(wǎng)絡相結合)創(chuàng)建了可以玩Atari游戲的代理。2018年,人工智能研發(fā)組織OpenAI也通過征服《Montezuma’s Revenge》游戲在該領域站穩(wěn)了腳跟,這是一款被認為特別難的Atari游戲。
在過去的幾個月里,事情取得了重大進展:這些工作重新喚醒了強化學習研究界的信念。在過去,強化學習被認為過于低效和簡單,無法解決復雜的問題,哪怕是游戲。
今年獲得重大推進的另一個用例是自然語言處理(NLP)。盡管研究人員在這個領域已經(jīng)工作了幾十年,但在幾年前,自然語言處理系統(tǒng)生成的文本聽起來并不夠自然。自2018年底以來,人們的注意力已經(jīng)從過去的單詞嵌入轉移到預先訓練的語言模型上,這是自然語言理解從計算機視覺中借鑒的一種技術。
訓練這些模型是以一種無監(jiān)督學習的方式進行的,這使得當代系統(tǒng)能夠從互聯(lián)網(wǎng)上可用的海量文本中學習。因此,這些模式變得“有知識”,并發(fā)展出了理解語境的能力。然后,使用有監(jiān)督學習可以進一步提高他們在特定任務中的表現(xiàn)。這種通過訓練不同任務來改進機器學習模型的做法屬于遷移學習領域,被認為具有很大的潛力。
自然語言理解技術從去年開始蓄勢待發(fā),2018年底推出了Google Bert、Elmo和ulmfit等系統(tǒng),但今年的風頭完全被OpenAI的GPT-2搶走,其表現(xiàn)引發(fā)了人們對自然語言理解系統(tǒng)是否合乎道德用例的討論。
理念走向成熟
今年也見證了最近的某些深度學習技術走向成熟。使用有監(jiān)督學習的應用,特別是計算機視覺,催生了成功的現(xiàn)實產(chǎn)品和系統(tǒng)。
生成性對抗網(wǎng)絡(GANS)已經(jīng)達到了完美水平,其中生成器網(wǎng)絡試圖通過學習生成模仿訓練數(shù)據(jù)的圖像來欺騙鑒別器網(wǎng)絡。顯然,創(chuàng)建人和物體的人工但逼真的圖像不再是AI的前沿。 2019年,AI生成的藝術甚至脫離了過去幾年的假設討論,成為今天博物館裝飾和拍賣的一部分。
計算機視覺技術也已被應用于具有重大商業(yè)和社會利益的領域,包括自動駕駛汽車和醫(yī)學。AI算法在這些領域的采用自然很慢,因為它們直接與人類生活互動。至少到目前為止,這些系統(tǒng)還不是完全自主的,它們的目標是支持和增強人類操作員的能力。
研究小組正在與醫(yī)院密切合作,開發(fā)用于疾病早期預測的AI系統(tǒng),并組織龐大的健康數(shù)據(jù)檔案,一個顯著的例子是DeepMind Health和倫敦大學附屬醫(yī)院(UCLH)之間正在進行的合作。然而,這些工作中的大多數(shù)仍處于實驗階段,到目前為止,使用深度學習來增強醫(yī)學圖像的軟件SubtlePet,是唯一獲得FDA批準的AI系統(tǒng)。
沉睡的巨人
AutoML是機器學習的一個子領域,自上世紀90年代出現(xiàn)以來,在2016年引起了人們的極大興趣,但不知何故從未登上過頭條,至少沒有像其他AI趨勢那樣引發(fā)關注。或許這要歸因于它不那么花哨的本質:AutoML旨在通過自動做出今天數(shù)據(jù)科學家通過手動、暴力調整做出的決策,來提高機器學習的實踐效率。
在過去的三年里,我們對這一領域的理解發(fā)生了變化。今天,大多數(shù)大公司都提供AutoML工具,包括Google Cloud AutoML、Microsoft Azure、Amazon Web Services和DataRobot。今年,人們的興趣轉向了進化方法,學習進化AI框架(LEAF)成為最先進的技術。然而,AutoML還沒有達到允許全自動AI系統(tǒng)比AI專家團隊表現(xiàn)更好的成熟程度。
對AI的擔憂
盡管取得了巨大成功,但今年AI領域也帶給我們許多令人沮喪的故事。一個主要問題是機器學習模型中存在的偏見,這個問題直到2018年才出現(xiàn),當時亞馬遜發(fā)現(xiàn)其自動招聘系統(tǒng)中存在性別偏見,而美國法院廣泛使用的判決工具COMPAS也被發(fā)現(xiàn)對性別和種族存在偏見。
今年此類示例數(shù)量明顯增加,這可以說表明公眾和機構對用于自動化決策的現(xiàn)有AI系統(tǒng)越來越懷疑。舉幾個例子為證:
——10月份多家醫(yī)院算法被發(fā)現(xiàn)對黑人患者有偏見;
——用于發(fā)放英國簽證的AI系統(tǒng)在10月份被一個人權組織指責存在種族偏見;
——蘋果的信用評分系統(tǒng)在11月被客戶指責存在性別偏見。
偏見是一個特別令人擔憂的問題,因為它位于有監(jiān)督深度學習的核心中。當有偏見的數(shù)據(jù)用于訓練算法,而預測模型無法解釋時,我們無法真正判斷是否存在偏見。到目前為止,研究界的反應是開發(fā)技術以了解深層模型決策背后的原因。但專家警告稱,如果我們采取正確的做法,許多問題都可以得到解決。Google Cloud Model Cards是最近組織社區(qū)走向開源模式的一次嘗試,并對其性質和局限性進行了清晰的描述。
今年的另一個令人擔憂的認識是,一項技術變得越復雜,它被濫用的可能性就越高。深度造假(Deepfakes)就是Gans的副產(chǎn)物,深度學習算法被用來在純粹虛構的場景中創(chuàng)建涉及真人的圖片或視頻。不需要擁有太多的遠見,就可以看到這種技術如何被用來傳播虛假消息,從政治宣傳到欺凌等。這個問題不能僅靠科學家來解決,歷史證明,他們不善于預測他們的發(fā)現(xiàn)對現(xiàn)實生活的影響,更不用說控制它們了,這需要社會各界的對話。
如今,量化AI的價值是很困難的,但有一件事是肯定的:AI已經(jīng)離開了科幻小說和前衛(wèi)計算機科學的領域,現(xiàn)在是需要在這方面投入巨資的時候了。今年早些時候,三位主要的深度學習研究人員獲得了圖靈獎,這是人們期待已久的、對AI作為計算機科學既定領域的認可。(選自:linkedin 作者:David Foster 編譯:網(wǎng)易智能 參與:小?。?/p>
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )