不久前,某知名品牌汽車被曝其自動駕駛系統(tǒng)無法識別白色貨車箱體這樣類似于“一堵墻”的障礙物。在自動駕駛中,行人、車輛被漏檢或者未能及時被檢測到,都可能導(dǎo)致交通事故的產(chǎn)生。此外,安防漏檢危險人物與物品也可能導(dǎo)致安全隱患。這些風(fēng)險都提示,AI視覺的安全性值得重視。
在研究AI視覺穩(wěn)定性的過程中,阿里安全圖靈實(shí)驗(yàn)室的研究人員札奇發(fā)現(xiàn),AI視覺還有一個盲區(qū):利用算法自動鑒別圖片關(guān)鍵信息,并巧妙刪除,就像給圖片“打碼”一樣,AI視覺系統(tǒng)就會無法識別該圖片。最近,這項研究成果被AI頂會ICCV 2021收錄。
札奇的研究源于逛商場看到樂高玩具迸發(fā)的靈感。當(dāng)時,她有一個疑問:“人眼如何識別‘馬賽克’式樣的玩具?還有早期的超級馬里奧,雖然只是由幾個簡單像素組成,人卻可以正確識別這種抽象的表達(dá)。AI模型面對‘馬賽克’式的圖片,能正確識別嗎?”
札奇進(jìn)行了驗(yàn)證。她發(fā)現(xiàn),傳統(tǒng)對圖片“加工”以騙過AI的方法是給圖片加上“噪音”,相當(dāng)于在當(dāng)前圖片上針對模型"亂涂亂畫",讓AI無法識別,但原圖片本身的關(guān)鍵信息沒有丟失,只要用“橡皮擦”擦一擦,AI依然能識別。如果反向操作,刪除圖片的關(guān)鍵信息,就像打“馬賽克”,圖片的關(guān)鍵信息已經(jīng)丟失,那么AI無論如何也難以識別。這意味著,針對“打碼攻擊”,難以有防御措施。
如下圖所示,給貓咪圖片加上噪聲,去除噪聲后,AI模型依然能認(rèn)出這是一只貓咪。相反,基于信息丟失的對抗攻擊在去噪聲的操作下基本沒什么變化,AI視覺模型“識別無能”。
圖說:傳統(tǒng)加噪音(上)與“打碼”刪信息(下)對比,“打碼”攻擊“無法還原”。
專注對AI的對抗樣本和模型安全性進(jìn)行研究的阿里安全高級算法專家越豐提醒,除了AI視覺場景,真實(shí)場景中也可能存在這種對抗攻擊,例如針對某知名PS軟件,只要提供具備對抗攻擊性質(zhì)的JPEG量化表,就能產(chǎn)出有“攻擊性”的圖片。
此外,在實(shí)際場景中,圖片信息丟失是常見現(xiàn)象,例如用戶將圖片以JPEG形式上傳到網(wǎng)絡(luò),就有一定的信息丟失,可能不經(jīng)意間就會制造一個“對抗樣本”。越豐認(rèn)為,這對當(dāng)前內(nèi)容安全場景的AI識別而言,都是不小的挑戰(zhàn)。
“比如有人將涉黃賭毒圖片以損失部分信息的形式上傳到網(wǎng)絡(luò),人眼依然能領(lǐng)會含義,但AI卻沒能正確識別,這對構(gòu)建清朗、健康網(wǎng)絡(luò)環(huán)境而言,就是一種對抗?!痹截S舉例道,AI安全行業(yè)應(yīng)該警惕這種類型的對抗。
當(dāng)然,“致盲AI”不是研究人員的目標(biāo),研究人員最終還是想發(fā)現(xiàn)AI模型的脆弱性,進(jìn)一步提升AI安全?!霸贏I安全前沿技術(shù)上進(jìn)行探索,一是為了讓AI更安全,二是為了讓AI助力安全,三是為解決具體社會問題尋找提效的新途徑?!卑⒗锇踩珗D靈實(shí)驗(yàn)室負(fù)責(zé)人薛暉提醒,相比“事后彌補(bǔ)”,安全應(yīng)前置,從源頭守衛(wèi)安全,對前沿技術(shù)進(jìn)行研究布局,以科技創(chuàng)新造就最好的網(wǎng)絡(luò)安全。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )