安全和隱私問(wèn)題是采用人工智能的最大障礙,這是有充分的理由。良性和惡意行為者都可以威脅AI模型和數(shù)據(jù)的性能、公平、安全與隱私。
隨著AI逐漸成為主流并轉(zhuǎn)向他們承諾一系列好處,這是企業(yè)不能忽略的發(fā)展趨勢(shì)。實(shí)際上,在最近的2020年Gartner新興技術(shù)發(fā)展曲線圖中,所列技術(shù)中有三分之一以上與AI有關(guān)。
同時(shí),人工智能也有一個(gè)往往無(wú)法解決的陰暗面,特別是因?yàn)楫?dāng)前的機(jī)器學(xué)習(xí)和人工智能平臺(tái),市場(chǎng)上還沒(méi)有提供一致或全面的工具來(lái)保護(hù)企業(yè)組織和個(gè)人的權(quán)益。人工智能企業(yè)而言,更糟糕的是,根據(jù)Gartner的一項(xiàng)調(diào)查,消費(fèi)者認(rèn)為,使用或提供AI的組織在出現(xiàn)問(wèn)題時(shí)應(yīng)負(fù)責(zé)任。
實(shí)施應(yīng)對(duì)威脅的安全措施以保護(hù)AI投資符合每個(gè)組織的利益。對(duì)AI的威脅和攻擊不僅損害AI模型的安全性和數(shù)據(jù)安全性,而且損害模型的性能和結(jié)果。
犯罪分子通常會(huì)以兩種方式攻擊AI,技術(shù)人員可以采取行動(dòng)來(lái)減輕此類威脅,但首先讓我們探討AI的三大核心風(fēng)險(xiǎn)。
人工智能的安全、責(zé)任和社會(huì)風(fēng)險(xiǎn)
使用AI的組織面臨三種風(fēng)險(xiǎn)。隨著AI越來(lái)越普及并嵌入到關(guān)鍵的企業(yè)運(yùn)營(yíng)中,安全風(fēng)險(xiǎn)正在上升。例如,自動(dòng)駕駛汽車的AI模型中可能存在導(dǎo)致致命事故的錯(cuò)誤。
由于使用敏感客戶數(shù)據(jù)的AI模型越來(lái)越多地影響著影響客戶的決策,因此責(zé)任風(fēng)險(xiǎn)正在增加。例如,錯(cuò)誤的AI信用評(píng)分會(huì)阻礙消費(fèi)者獲得貸款,從而導(dǎo)致財(cái)務(wù)和聲譽(yù)損失。
隨著“不負(fù)責(zé)任的AI”通過(guò)做出既不透明也不容易理解的偏見(jiàn)決策,給消費(fèi)者帶來(lái)不利和不公平的后果,社會(huì)風(fēng)險(xiǎn)正在增加。即使是輕微的偏差也會(huì)導(dǎo)致算法的嚴(yán)重錯(cuò)誤行為。
罪犯通常如何攻擊AI
上述風(fēng)險(xiǎn)可能是由犯罪分子攻擊AI的兩種常見(jiàn)方式造成的:惡意輸入,騷擾和調(diào)查攻擊。
對(duì)AI模型的惡意輸入可以采取對(duì)抗性AI、操縱數(shù)字輸入或惡意物理輸入的形式。對(duì)抗性AI可能會(huì)使用AI生成的聲音以社會(huì)工程學(xué)人類的形式出現(xiàn),該聲音可用于任何類型的犯罪,被認(rèn)為是網(wǎng)絡(luò)釣魚的“新”形式。例如,去年3月,犯罪分子使用AI合成語(yǔ)音模仿了CEO的語(yǔ)音,并要求將243000美元的資金以欺詐方式轉(zhuǎn)移到自己的帳戶中。
調(diào)查攻擊涉及犯罪分子向組織的AI模型發(fā)送調(diào)查,以了解其工作方式,并且可能以黑匣子或白匣子的形式出現(xiàn)。具體來(lái)說(shuō),黑匣子查詢攻擊確定了不常見(jiàn)的擾動(dòng)輸入,以用于所需的輸出,例如財(cái)務(wù)收益或避免檢測(cè)。一些學(xué)者已經(jīng)能夠通過(guò)操縱輸出來(lái)欺騙領(lǐng)先的翻譯模型,從而導(dǎo)致翻譯不正確。
白盒查詢攻擊會(huì)重新生成訓(xùn)練數(shù)據(jù)集以重現(xiàn)類似的模型,這可能會(huì)導(dǎo)致有價(jià)值的數(shù)據(jù)被盜。這樣的一個(gè)例子是,語(yǔ)音識(shí)別供應(yīng)商成為新的外國(guó)供應(yīng)商偽造他們的技術(shù)然后出售它的受害者,這導(dǎo)致外國(guó)供應(yīng)商能夠基于被盜的IP搶占市場(chǎng)份額。
最新的安全支柱使AI值得信賴
對(duì)于IT領(lǐng)導(dǎo)者而言,承認(rèn)其組織中對(duì)AI的威脅至關(guān)重要,以便評(píng)估和支持他們現(xiàn)有的現(xiàn)有安全支柱(以人為中心和企業(yè)安全控制)和新的安全支柱(AI模型的完整性和AI數(shù)據(jù))完整性)。
AI模型的完整性鼓勵(lì)組織探索對(duì)員工的對(duì)抗培訓(xùn),并通過(guò)企業(yè)安全控制來(lái)減少攻擊面。將區(qū)塊鏈用于AI模型的起源和跟蹤以及用于訓(xùn)練該模型的數(shù)據(jù)也屬于這一支柱,作為組織使AI更加值得信賴的一種方式。
AI數(shù)據(jù)完整性側(cè)重于數(shù)據(jù)異常分析(如分布模式和異常值)以及數(shù)據(jù)保護(hù)(如差異性隱私或合成數(shù)據(jù)),以應(yīng)對(duì)對(duì)AI的威脅。
為了保護(hù)AI應(yīng)用程序的安全,專注于安全技術(shù)和基礎(chǔ)架構(gòu)的技術(shù)專業(yè)人員應(yīng)執(zhí)行以下操作:
通過(guò)進(jìn)行威脅評(píng)估并應(yīng)用嚴(yán)格的訪問(wèn)控制以及對(duì)訓(xùn)練數(shù)據(jù)、模型和數(shù)據(jù)處理組件的監(jiān)視,可以最大程度地減少開(kāi)發(fā)和生產(chǎn)期間AI應(yīng)用的攻擊面。
通過(guò)解決四個(gè)特定于AI的方面來(lái)增強(qiáng)用于保護(hù)軟件開(kāi)發(fā)生命周期(SDLC)的標(biāo)準(zhǔn)控件:模型開(kāi)發(fā)過(guò)程中的威脅,AI模型中缺陷的檢測(cè),對(duì)第三方預(yù)訓(xùn)練模型的依賴以及公開(kāi)的數(shù)據(jù)管道。
通過(guò)保護(hù)和維護(hù)最新,高質(zhì)量并且包含對(duì)抗性樣本的數(shù)據(jù)存儲(chǔ)庫(kù),防御所有數(shù)據(jù)管道中的數(shù)據(jù)中毒。越來(lái)越多的開(kāi)源和商業(yè)解決方案可用于提高針對(duì)數(shù)據(jù)中毒,對(duì)抗性輸入和模型泄漏攻擊的魯棒性。
除非欺詐者被人發(fā)現(xiàn)并隨后對(duì)該欺詐者的系統(tǒng)進(jìn)行取證,否則很難證明AI模型何時(shí)遭到攻擊。同時(shí),企業(yè)不會(huì)簡(jiǎn)單地停止使用AI,因此確保其安全對(duì)于在企業(yè)中成功實(shí)施AI至關(guān)重要。將安全性改造到任何系統(tǒng)中的成本要比從一開(kāi)始就內(nèi)置它要高得多,因此請(qǐng)立即保護(hù)您的AI。
* 千家網(wǎng)原創(chuàng)文章,轉(zhuǎn)載請(qǐng)注明作者及出處。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )