精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    光神經網絡,正在照亮智能計算的未來

    如果問一個問題——能夠進行深度神經網絡計算的芯片有哪些?大家給出的答案可能五花八門:CPU、GPU、DSP、NPU……

    過去幾年里,電子計算已經成為實現人工智能算法——尤其是深度神經網絡模型——最重要的算力支撐。盡管具體的硬件架構各有不同,但一言以蔽之,都是采用了馮諾依曼型的計算原理,即VLSI(超大規(guī)模集成電路)的“電子+邏輯”信息處理模式,以復雜的邏輯電路和處理器芯片來完成計算任務。

    但是電子方法有其先天缺陷:一是信號之間容易相互干擾,對需要高密度連接的神經網絡帶來一定的困難;二是能源需求太高,導致計算成本居高不下。

    在以AI為主旋律的“數字基建”大規(guī)模爆發(fā)前夜,在算力上未雨綢繆,自然也就成了學術界和產業(yè)界共同關注的頭等大事。

    最近,明斯特大學、牛津大學和??巳卮髮W的研究人員就共同實現了一項新的計算芯片,采用光學系統(tǒng)來幫助神經網絡進行“學習”,以此實現計算、識別等行為。

    不過,無論是光學計算,還是類腦芯片,類似的提法其實在學界早已有之,并且由于自身的局限性一直進展緩慢。那么,光學深度學習芯片的出現,是否真的突破了先天的技術桎梏,又意味著哪些新的產業(yè)機遇呢?

    光學計算+深度神經網絡的“攪和”歷史

    在介紹新計算硬件之前,先言簡意賅地解答一下大家心中可能存在的困惑——光到底是如何進行計算的?又為什么比電子方法更有優(yōu)勢呢?

    我們知道,深度學習神經網絡是模仿人類大腦神經元的運行方式而來的。在每一層中,來自上一層(或者輸入源)的信號經由神經元處理,將結果和前向信號傳遞給下一層的神經元。

    很顯然,這種計算方式需要依賴神經元之間的大量、動態(tài)的連接才能完成,會對大多數使用電子方法的集成電路造成壓力。

    因此,大家紛紛開始研究其他硬件,光學芯片因此成為“全村的希望”。

    2017年,MIT的研究人員就研發(fā)出了一種使用光子技術實現神經網絡的方法。他們使用一系列相互連接的波導管(傳輸微波波段的電磁波裝置),來為特定的計算編程。而處理器則通過一系列耦合光子波導來引導光線,因此只需要運用鏡片改變光線的方向,就可以達成運算。

    可編程、低能耗,聽起來是不是棒棒噠?不過這種方式打造的硬件準確率實在是不太令人滿意,只有77%,被傳統(tǒng)方法吊打的節(jié)奏啊。

    不過科學家們并沒有認輸,2018年加州大學洛杉磯分校的科學家們又將光學深度學習送上了《Science》雜志。

    這次,科學家們采用3D 打印的方式制造出了一種全光學的深度學習框架D2NN。

    簡單來說,研究人員訓練出了能夠識別不同數據類型的光學網絡模型,并為它們分別創(chuàng)建了模型,該模型由多個像素層組成,每個像素之間如同神經元一樣進行連接,并通過光來傳輸信息。

    然后,研究人員采用五層 3D 打印塑料對仿真模型進行物理再現,固態(tài)成品的探測器就可以通過物體表面反射的光來判斷出相應的分類結果。

    這種由光學元件堆疊而成的神經網絡硬件,準確率能達到 91.75%,成本相對便宜,但是卻很難做到器件的小型化,難以處理復雜的數據及圖像分析,而且所有參數3D打印之后就不能被再次編程了。

    (使用 3D 打印的“人工神經網絡”芯片)

    總結一下就是,此前的研究都對光學計算+神經網絡的解決方案提出了自己的方法,但帶來的問題多于答案,科學家們不得不繼續(xù)探索。

    全光學神經突觸系統(tǒng):能否刷新光學計算的進程?

    5月8日,來自德國明斯特大學的科學家將其研究成果發(fā)布在了《Nature》雜志上。

    論文《All-optical spiking neurosynaptic networks with self-learning capabilities》(具有自學習功能的全光學尖峰神經突觸網絡),提出了一種可以在毫米級光子芯片上實現的全光學神經網絡。

    研究人員是這么設想的:

    輸入的數據(即光波導)可以被微米級環(huán)狀諧振器調制成不同的波長,然后注入網絡并停留在光學微芯片上。接著利用集成在一起的相變材料,來實現權重調制,這種物質可以由光觸發(fā)顯著的變化,非常適合模擬突觸和神經元之間的“沖動”。

    信息在光學神經網絡中的傳輸,就好像是兩組人(單個波導的兩條路徑)同時在玩?zhèn)髀曈螒?,需要隔的距離比較遠,來防止另一個組的聲音干擾(耦合)。同時還不能有人亂開腦洞急轉彎,免得傳話內容南轅北轍(光離開波導)。

    因此,在每個組的傳話過程中,都派出一個小秘書(相變材料),根據每組任務(權重)的不同,在每次傳遞過程中(微環(huán)諧振器的入口和出口處),對隊員們向下傳遞的信息進行微調,將被傳錯/修改的信息復位,這樣就能最大限度地保證每個隊伍向后傳遞的信息,既能保持差異,又足夠準確。

    為了證明這一點,研究人員開發(fā)了一個由四個人工神經元和60個突觸組成的芯片。

    芯片的結構由不同的層組成,分別在光納米電路中的不同通道上傳輸光。

    (分子光學神經元電路)

    研究人員使用了兩種不同的機器學習算法,分別是小規(guī)模的監(jiān)督學習和無監(jiān)督學習,以光脈沖的形式向后“提供”信息,以此測試全光學神經突觸系統(tǒng)能否根據給定的光識別出具體的模式。

    目前,研究人員已經利用該技術成功實現了光學模式識別,并展現了光子神經網絡的可擴展性。

    在此,我們可以簡單總結一下這種新光學神經網絡硬件的特殊之處:

    首先,它解決了前輩們沒能解決的問題——光學計算在識別準確率、可編程性、微型化上的缺陷——讓光學計算在計算機硬件領域的潛力帶來了新的前景。

    (正在開發(fā)的光學微芯片大約只有一分錢大小)

    另外,該硬件的計算方式和大腦中神經元突觸的信息傳遞高度相似,不僅使得信息(數據)得以在人工神經網絡中傳輸,還能夠進行有效的處理和存儲。以更類似于大腦的方式處理信息,這有助于開發(fā)更高性能的算法,進而幫助智能機器更好地完成現實世界的任務。

    而且,該系統(tǒng)只在光下工作,使它充分發(fā)揮了光學計算的優(yōu)勢,處理數據的速度要快很多倍,更適合用于一些大規(guī)模數據的神經網絡,比如醫(yī)學診斷模型等。并且更加節(jié)省能耗。

    這也就不難理解,為什么有人認為,如果高能效的可擴展光子神經芯片最終出現,這一團隊的研究絕對算是開山之作了吧。

    當然,想要讓可擴展光子神經網絡系統(tǒng)在現實中應用,還需要做許多后續(xù)工作。

    最首要的,就是增加人工神經元和突觸的數量,以及神經網絡的深度,以便進一步接近和適應真實的大規(guī)模計算應用場景。

    另外,芯片的制造也存在一定的限制。對此,埃克塞特大學的戴維·賴特教授表示,將使用硅技術來生產光學納米芯片。

    另一個值得關注的問題是,系統(tǒng)中極為關鍵的相變材料,其結晶速度會吸收并減慢光速,從而限制神經元被激發(fā)的最大速率,對于光的交叉耦合帶來一定的復雜影響。因此,每一次注入該系統(tǒng)的總光學功率都需要進行仔細校準,以保證材料對輸入信號的響應完全符合預期。

    不管怎么說,盡管光學計算硬件仍然在實現層面面臨著許多挑戰(zhàn)和困難,規(guī)?;瘧靡矝]有明確的時間表。但或多或少讓我們看到了更多有趣可行的計算方式,未來世界的算力資源依舊是充沛和值得期待的。

    隨著智能基建的一步步添磚加瓦,光學計算必將變得越來越重要。

    免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。

    免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

    2019-05-15
    光神經網絡,正在照亮智能計算的未來
    最近,明斯特大學、牛津大學和??巳卮髮W的研究人員就共同實現了一項新的計算芯片,采用光學系統(tǒng)來幫助神經網絡進行“學習”,以此實現計算、識別等行為。

    長按掃碼 閱讀全文