日前,英國紐卡斯爾大學的研究人員研發(fā)出一種非神經(jīng)網(wǎng)絡硬件,可以顯著降低人工智能的功率消耗。
研發(fā)團隊訓練了一個神經(jīng)網(wǎng)絡,利用Tsetlin機器技術(shù),來從標準MNIST數(shù)據(jù)集識別手寫數(shù)字。
紐卡斯爾大學高級講師Rishad Shafik表示:“即開即用的神經(jīng)網(wǎng)絡讓我們每焦耳可以進行不到10萬億次操作。而使用我們設計的第一臺Tsetlin機器,這個數(shù)值能達到65萬億次。這種改進主要來自于簡化過的邏輯設計。”
他補充說,在識別隨機說話者說出的關鍵詞時,一臺Tsetlin機器“可以識別15個單詞,與神經(jīng)網(wǎng)絡識別一個單詞所需的能量消耗相同”。
Tsetlin機器是一種“學習自動機”(learning automata),它最早是由俄羅斯科學家Mikhail Tsetlin在20世紀60年代發(fā)明的一種機器學習算法。Shafik解釋說,這種算法的問題在于,在其基本形式中,“學習自動機幾乎不可能在硬件上實現(xiàn),因為有大量的狀態(tài)需要去適應”。
挪威阿格德大學的AI教授Ole-Christoffer Granmo說,在過去的幾年里,他通過將學習自動機與經(jīng)典的博弈論和布爾代數(shù)相結(jié)合,找到了一種降低學習自動機復雜性的方法。他將簡化版的學習自動機應用到軟件中,并以該學科創(chuàng)始人的名字將其命名為“Tsetlin機器”(Tsetlin machine)。
在Granmo的研究基礎以及他本人的協(xié)助下,紐卡斯爾團隊找到了一種能夠有效地將Tsetlin機器的數(shù)據(jù)類型和基礎算法映射到邏輯門上的方法,并在FPGA和定制ASIC上成功實現(xiàn),他們采用的的形式不僅適用于訓練/學習AI階段,同時也適用于訓練之后,也就是所謂的AI推理階段。
Shafik將Tsetlin機器和神經(jīng)網(wǎng)絡之間的功耗差別歸結(jié)于它們映射到硬件上的方式:神經(jīng)網(wǎng)絡,包括二值神經(jīng)網(wǎng)絡在內(nèi),都是算術(shù),它們包含了許多乘法和加法操作,而Tsetlin機器硬件不使用算術(shù)。他表示:“這純粹是邏輯上的平行操作。”
紐卡斯爾微系統(tǒng)研究小組組長Alex Yakovlev,同時也和Shafik一樣是AI團隊的領導者,他表示:“能量效率是人工智能最重要的賦能因素,同樣重要的是能夠解釋AI決策的能力。對于這兩方面,我們需要擺脫算術(shù),而我們的Tsetlin機器硬件設計正好幫我們解決了這一問題?!?/p>
這樣的機器能做什么?“任何類型的機器學習都需要訓練。”Shafik說道,“本質(zhì)上,它能夠做神經(jīng)網(wǎng)絡可以做的任何事情。”
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )