近日,騰訊安全平臺部Blade團隊對外發(fā)布消息稱,該團隊在對谷歌人工智能學習系統(tǒng)TensorFlow進行代碼審計時,發(fā)現(xiàn)該系統(tǒng)存在重大安全漏洞,利用該系統(tǒng)進行編輯的AI場景,有遭受惡意攻擊的可能。
目前谷歌官方已經(jīng)確認了該漏洞,并表示TensorFlow官網(wǎng)將在網(wǎng)站創(chuàng)建安全公告頁面,及時披露和修復(fù)安全漏洞。
尚未造成影響
TensorFlow是谷歌研發(fā)的第二代人工智能學習系統(tǒng),它可在小到一部智能手機、大到數(shù)千臺數(shù)據(jù)中心服務(wù)器的各種設(shè)備上運行。除谷歌外,國外如eBay、Airbnb、Twitter、Uber等企業(yè),國內(nèi)的小米、中興、京東等公司都在使用TensorFlow進行AI模型訓練和開發(fā)。
騰訊安全平臺部Blade團隊回復(fù)科技日報記者,這次發(fā)現(xiàn)的漏洞不但攻擊成本低,普通攻擊者就能實施攻擊,而且迷惑性強,大部分AI研究者可能沒有防備。安全漏洞風險較高,主要問題是在TensorFlow處理訓練好AI模型的時候,沒有考慮到規(guī)避異常AI模型,導(dǎo)致其執(zhí)行了黑客的命令邏輯。
好在目前這個漏洞尚未被“有心人”利用,造成嚴重后果。騰訊安全團隊表示,要從根本上解決這種漏洞需要TensorFlow框架更改處理模型的架構(gòu),難點是整個架構(gòu)設(shè)計的更改。目前使用者應(yīng)該避免使用外部的AI模型,等待官方發(fā)布補丁。
安全如何保障
此前有業(yè)內(nèi)人士認為,由于AI框架剛開始被大范圍使用,截至首個安全風險被報告,業(yè)內(nèi)對此類安全問題關(guān)注度還不夠。
北京市計算機中心算法工程師張秀玲介紹,目前這些第三方基礎(chǔ)庫是端對端的相對成熟穩(wěn)定的平臺,可以省去很多基礎(chǔ)編程工作,只需要在這些基礎(chǔ)庫之上設(shè)計算法架構(gòu)即可,尤其對于做應(yīng)用的人很有吸引力。騰訊安全團隊表示,現(xiàn)在很多軟件都會依賴TensorFlow、Caffe、Torch 等第三方開源基礎(chǔ)庫,所以這里也容易引入漏洞,常見的是安全漏洞。AI可能存在的安全漏洞分為兩類。
“第一類是AI算法自身的漏洞,比如通過一些方法欺騙AI,讓AI誤判。之前業(yè)界和我們的團隊都實現(xiàn)過利用特制的交通標識牌欺騙自動駕駛系統(tǒng)?!彬v訊安全團隊說。還有一類屬于傳統(tǒng)的軟件漏洞,比如像處理文件的漏洞、引入第三庫帶來的漏洞等。騰訊安全團隊表示,造成什么風險是由這個AI系統(tǒng)的能力決定的。如果是關(guān)系國計民生的大系統(tǒng)那將會造成很大危害,會導(dǎo)致AI失控,或者說被黑客控制。
我國7月發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確指出,人工智能發(fā)展的不確定性帶來新挑戰(zhàn)。在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預(yù)防與約束引導(dǎo),最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展。
騰訊安全團隊認為,安全防護是一個縱深工程,僅僅從算法和代碼層面考慮的話,要從漏洞成因的兩方面入手,算法上不要出問題,代碼上也要保證安全。(科技日報)
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )