近日,清華大學(xué)AI研究院孵化企業(yè)RealAI(瑞萊智慧)正式推出首個(gè)針對(duì)AI在極端和對(duì)抗環(huán)境下的算法安全性檢測(cè)與加固的工具平臺(tái)——RealSafe人工智能安全平臺(tái)。該平臺(tái)內(nèi)置領(lǐng)先的AI對(duì)抗攻防算法,提供從安全測(cè)評(píng)到防御加固整體解決方案,目前可用于發(fā)現(xiàn)包括人臉比對(duì)等在內(nèi)的常用AI算法可能出錯(cuò)的極端情形,也能預(yù)防潛在的對(duì)抗攻擊。
業(yè)界首個(gè)針對(duì)AI在極端和對(duì)抗環(huán)境下的算法安全性檢測(cè)與加固的工具平臺(tái)
“對(duì)抗樣本”成新型病毒,算法安全問(wèn)題亟待解決
隨著人工智能技術(shù)的高速發(fā)展,人工智能在諸多場(chǎng)景正逐漸替代或協(xié)作著人類(lèi)的各種勞動(dòng),它們可以成為人類(lèi)的眼睛、耳朵、手臂甚至大腦。
其中,機(jī)器視覺(jué)作為AI時(shí)代的基礎(chǔ)技術(shù),其背后的AI算法一直是各科技巨頭和創(chuàng)業(yè)公司共同追逐的熱點(diǎn)。然而在機(jī)器視覺(jué)諸多主流應(yīng)用場(chǎng)景的背后,往往也藏著由技術(shù)性缺陷導(dǎo)致的算法安全風(fēng)險(xiǎn)。
例如,在一些訓(xùn)練數(shù)據(jù)無(wú)法覆蓋到的極端場(chǎng)景中,自動(dòng)駕駛汽車(chē)的識(shí)別系統(tǒng)可能出現(xiàn)匪夷所思的決策,危害乘車(chē)人的人身安全。從2016年至今,Tesla、Uber等企業(yè)的輔助駕駛和自動(dòng)駕駛系統(tǒng)就都曾出現(xiàn)過(guò)類(lèi)似致人死亡的嚴(yán)重事故。并且這類(lèi)極端情形也可能被惡意制造并利用,發(fā)動(dòng)“對(duì)抗樣本攻擊”,去年7月,百度等研究機(jī)構(gòu)就曾經(jīng)通過(guò)3D技術(shù)打印出能讓自動(dòng)駕駛“無(wú)視”的障礙物,讓車(chē)輛面臨撞擊風(fēng)險(xiǎn)。
而以上攻擊之所以能成功,主要是機(jī)器視覺(jué)和人類(lèi)視覺(jué)有著很大的差異。因此可以通過(guò)在圖像、物體等輸入信息上添加微小的擾動(dòng)改變(即上述故意干擾的“對(duì)抗樣本”),就能導(dǎo)致很大的算法誤差。此外,隨著AI的進(jìn)一步發(fā)展,AI算法模型將運(yùn)用金融決策、醫(yī)療診斷等關(guān)鍵核心場(chǎng)景,這類(lèi)AI“漏洞”的威脅將愈發(fā)凸顯出來(lái)。
近年來(lái),包括清華大學(xué)人工智能研究院院長(zhǎng)張鈸院士、前微軟全球執(zhí)行副總裁沈向洋等均提倡要發(fā)展安全、可靠、可信的人工智能以及負(fù)責(zé)任的人工智能,其中AI的安全應(yīng)用均是重點(diǎn)方向。
而且,AI安全作為新興領(lǐng)域,在開(kāi)源社區(qū)、工具包的加持下,對(duì)抗樣本等攻擊手段日益變得復(fù)雜,相關(guān)防御手段的普及和推廣卻難以跟上。并且對(duì)抗樣本等算法漏洞檢測(cè)存在較高的技術(shù)壁壘,目前市面上缺乏自動(dòng)化檢測(cè)工具,而大部分企業(yè)與組織不具備該領(lǐng)域的專(zhuān)業(yè)技能來(lái)妥善應(yīng)對(duì)日益增長(zhǎng)的惡意攻擊。
從安全測(cè)評(píng)到防御加固,RealSafe讓AI更加安全可控
就如網(wǎng)絡(luò)安全時(shí)代,網(wǎng)絡(luò)攻擊的大規(guī)模滲透誕生出殺毒軟件,RealAI團(tuán)隊(duì)希望通過(guò)RealSafe平臺(tái)打造出人工智能時(shí)代的“殺毒軟件”,幫助企業(yè)高效應(yīng)對(duì)人工智能時(shí)代下算法漏洞孕育出的“新型病毒”。
目前,RealSafe平臺(tái)主要支持兩大功能模塊:模型安全測(cè)評(píng)、防御解決方案。
其中,模型安全評(píng)測(cè)主要為用戶(hù)提供AI模型安全性評(píng)測(cè)服務(wù)。用戶(hù)只需接入所需測(cè)評(píng)模型的SDK或API接口,選擇平臺(tái)內(nèi)置或者自行上傳的數(shù)據(jù)集,平臺(tái)將基于多種算法生成對(duì)抗樣本模擬攻擊,并綜合在不同算法、迭代次數(shù)、擾動(dòng)量大小的攻擊下模型效果的變化,給出模型安全評(píng)分及詳細(xì)的測(cè)評(píng)報(bào)告(如下圖)。目前已支持黑盒查詢(xún)攻擊方法與黑盒遷移攻擊方法。
防御解決方案則是為用戶(hù)提供模型安全性升級(jí)服務(wù),目前RealSafe平臺(tái)支持五種去除對(duì)抗噪聲的通用防御方法,可實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的自動(dòng)去噪處理,破壞攻擊者惡意添加的對(duì)抗噪聲。根據(jù)上述的模型安全評(píng)測(cè)結(jié)果,用戶(hù)可自行選擇合適的防御方案,一鍵提升模型安全性。另外防御效果上,根據(jù)實(shí)測(cè)來(lái)看,部分第三方的人臉比對(duì)API通過(guò)使用RealSafe平臺(tái)的防御方案加固后,安全性可提高40%以上
隨著模型攻擊手段在不斷復(fù)雜擴(kuò)張的情況下,RealSafe平臺(tái)還持續(xù)提供廣泛且深入的AI防御手段,幫助用戶(hù)獲得實(shí)時(shí)且自動(dòng)化的漏洞檢測(cè)和修復(fù)能力。
準(zhǔn)確度99.99%也難逃被“惡意干擾”,RealSafe高效應(yīng)對(duì)算法威脅
考慮到公眾對(duì)于對(duì)抗樣本這一概念可能比較模糊,RealSafe平臺(tái)特意選取了公眾最為熟知的人臉比對(duì)場(chǎng)景(人臉比對(duì)被廣泛用于金融遠(yuǎn)程開(kāi)戶(hù)、刷臉支付、酒店入住登記等場(chǎng)景的身份認(rèn)證環(huán)節(jié))提供在線(xiàn)體驗(yàn)。
并且,為了深入研究“對(duì)抗樣本”對(duì)人臉比對(duì)系統(tǒng)識(shí)別效果的影響,RealAI 團(tuán)隊(duì)基于此功能在國(guó)內(nèi)外主流 AI 平臺(tái)的演示服務(wù)中進(jìn)行了測(cè)試。
實(shí)測(cè)證明,“對(duì)抗樣本”可以極大的干擾人臉比對(duì)系統(tǒng)的識(shí)別結(jié)果,而測(cè)試的這幾家互聯(lián)網(wǎng)公司平臺(tái)開(kāi)放的人臉比對(duì)API或SDK,幾乎覆蓋了目前市面上很多中小型企業(yè)在落地人臉識(shí)別應(yīng)用時(shí)的選擇,如果他們的人臉比對(duì)技術(shù)存在明顯的安全漏洞,意味著更廣泛的應(yīng)用場(chǎng)景將存在安全隱患。
因此,為了幫助更大范圍內(nèi)的企業(yè)高效應(yīng)對(duì)算法威脅,RealSafe平臺(tái)具備以下兩大優(yōu)勢(shì):
·組件化、零編碼的在線(xiàn)測(cè)評(píng):相較于A(yíng)RT、Foolbox等開(kāi)源工具需要自行部署、編寫(xiě)代碼,RealSafe平臺(tái)采用組件化、零編碼的功能設(shè)置,免去了重復(fù)造輪子的精力與時(shí)間消耗,用戶(hù)只需提供相應(yīng)的數(shù)據(jù)即可在線(xiàn)完成評(píng)估,學(xué)習(xí)成本低,無(wú)需擁有專(zhuān)業(yè)算法能力也可以上手操作。
·可視化、可量化的評(píng)測(cè)結(jié)果:為了幫助用戶(hù)提高對(duì)模型安全性的概念,RealSafe平臺(tái)采用可量化的形式對(duì)安全評(píng)測(cè)結(jié)果進(jìn)行展示,根據(jù)模型在對(duì)抗樣本攻擊下的表現(xiàn)進(jìn)行評(píng)分,評(píng)分越高則模型安全性越高。此外,RealSafe平臺(tái)提供安全性變化展示,經(jīng)過(guò)防御處理后的安全評(píng)分變化以及模型效果變化一目了然。
從數(shù)字世界到物理世界 RealAI落地更多安全周邊產(chǎn)品
隨著機(jī)器學(xué)習(xí)模型不斷的升級(jí)演化,“對(duì)抗樣本”已經(jīng)演變成一種新型攻擊手段,并且逐漸從數(shù)字世界蔓延到物理世界:在路面上粘貼對(duì)抗樣本貼紙模仿合并條帶誤導(dǎo)自動(dòng)駕駛汽車(chē)拐進(jìn)逆行車(chē)道、胸前張貼一張對(duì)抗樣本貼紙?jiān)诒O(jiān)控設(shè)備下實(shí)現(xiàn)隱身……
因此,除了針對(duì)數(shù)字世界的算法模型推出安全評(píng)測(cè)平臺(tái),RealAI團(tuán)隊(duì)也聯(lián)合清華大學(xué)AI研究院圍繞多年來(lái)積累的領(lǐng)先世界的研究成果落地了一系列AI攻防安全產(chǎn)品,為更多場(chǎng)景保駕護(hù)航。
比如通過(guò)佩戴帶有對(duì)抗樣本圖案的“眼鏡”,黑客可以輕易破解商用手機(jī)的面部解鎖,通過(guò)在胸前張貼特制花紋實(shí)現(xiàn)在A(yíng)I監(jiān)控下的“隱身”,以及通過(guò)在車(chē)輛上涂裝特殊花紋躲避AI對(duì)車(chē)輛的檢測(cè)。發(fā)現(xiàn)類(lèi)似新型漏洞的同時(shí),RealAI也推出相應(yīng)的防御技術(shù),支持對(duì)主流AI算法中的安全漏洞進(jìn)行檢測(cè),并提供AI安全防火墻對(duì)攻擊AI模型的行為進(jìn)行有效攔截。
人工智能的大潮滾滾而來(lái),隨之而來(lái)的安全風(fēng)險(xiǎn)也將越來(lái)越多樣化,尤其近年來(lái)因AI技術(shù)不成熟導(dǎo)致的侵害風(fēng)險(xiǎn)也頻頻發(fā)生,可以說(shuō),算法漏洞已逐漸成為繼網(wǎng)絡(luò)安全、數(shù)據(jù)安全后又一大安全難題。
所幸的是,以RealAI為代表的這些頂尖AI團(tuán)隊(duì)早已開(kāi)始了AI安全領(lǐng)域的征程,并開(kāi)始以標(biāo)準(zhǔn)化的產(chǎn)品助力行業(yè)降低應(yīng)對(duì)安全風(fēng)險(xiǎn)的門(mén)檻與成本。此次上線(xiàn)RealSafe人工智能安全平臺(tái)是RealAI的一小步嘗試,但對(duì)于整個(gè)行業(yè)而言,這將是人工智能產(chǎn)業(yè)邁向健康可控發(fā)展之路的一大步。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )