生成式人工智能:網(wǎng)絡安全的福還是禍?
上個月,Elon Musk寫了一封公開信,要求將人工智能系統(tǒng)的開發(fā)暫停6個月,并警告稱“與人類競爭的智能可能對社會和人類構成深遠的風險”。雖然這聽起來有些危言聳聽,但生成式人工智能帶來的威脅是真實存在的,并且隨著人工智能生成的網(wǎng)絡釣魚電子郵件、惡意軟件和深度造假活動的興起,這種威脅在網(wǎng)絡安全領域已經(jīng)非常明顯。隨著這項技術變得更加先進,生成式人工智能將不可避免地繼續(xù)促進網(wǎng)絡犯罪活動,并賦予“想成為”網(wǎng)絡犯罪分子以越來越復雜的方式攻擊組織的能力,通常無需編寫一行代碼。
毫無疑問,組織應該關注這個新的生成式人工智能時代帶來的風險。然而,這項技術也可用于防止惡意行為者,支持防病毒軟件、欺詐檢測以及身份和訪問管理。
生成式人工智能將繼續(xù)存在,尤其是首席信息安全官(CISO),不能對這項新技術帶來的風險視而不見。那么,風險是什么?組織如何在新的生成式人工智能驅(qū)動的威脅環(huán)境中保護自己?
網(wǎng)絡犯罪分子利用生成式人工智能
ChatGPT和類似的生成式人工智能模型的出現(xiàn)創(chuàng)造了一個新的威脅格局,幾乎任何人都可以對組織進行惡意網(wǎng)絡活動。網(wǎng)絡犯罪分子不再需要具備高級編碼知識或技能。其所需要的只是惡意,以及對ChatGPT的訪問權限。
影響欺詐應該是未來組織特別關注的領域。絕不是一個新的或新穎的概念。多年來,機器人一直被用來在社交媒體平臺和主流媒體評論區(qū)生成評論,以塑造政治話語。例如,在2016年總統(tǒng)大選前幾周,人們發(fā)現(xiàn)機器人轉(zhuǎn)發(fā)唐納德·特朗普的推文是希拉里·克林頓的十倍。但現(xiàn)在在生成式人工智能的時代,這種類型的欺騙——在歷史上是為高層政治欺詐而保留的——可能會滲透到組織層面。理論上,惡意行為者可以在幾秒鐘內(nèi)使用ChatGPT或Google Bard在社交媒體、主流新聞媒體或客戶服務頁面上生成數(shù)百萬條有害信息。針對企業(yè)(包括其客戶和員工)的精心設計的攻擊可以以前所未有的規(guī)模和速度執(zhí)行。
組織的另一個主要擔憂是惡意機器人的激增。2021年,全球27.7%的互聯(lián)網(wǎng)流量由惡意機器人構成,而在過去幾年中,這一數(shù)字只增不減。憑借其先進的自然語言處理能力,ChatGPT可以生成真實的用戶代理字符串、瀏覽器指紋和其他屬性,使抓取機器人看起來更像合法用戶。事實上,根據(jù)最近的一份報告,GPT-4非常擅長生成語言,其能讓一個人相信其是盲人,以便讓那個人為聊天機器人解決驗證碼問題。這對企業(yè)構成了巨大的安全威脅,并且隨著生成式人工智能的發(fā)展,這將成為一個日益嚴重的問題。
生成式人工智能可以成為首席信息安全官的福音
生成式人工智能帶來的風險無疑是令人擔憂的,但這項技術將繼續(xù)存在,并迅速發(fā)展。因此,首席信息安全官(CISO)必須利用生成式人工智能來加強其網(wǎng)絡安全策略,并開發(fā)更強大的防御措施,以抵御新出現(xiàn)的復雜惡意攻擊。
CISO目前面臨的最大挑戰(zhàn)之一是網(wǎng)絡安全技能差距。到目前為止,全球大約有350萬個網(wǎng)絡職位空缺。最終,如果沒有熟練的員工,組織根本無法保護自己免受威脅。然而,生成式人工智能為這一行業(yè)挑戰(zhàn)提供了解決方案,ChatGPT和Google Bard等工具可用于加快手工工作,減少網(wǎng)絡安全人員的工作流程。特別是,特別是ChatGPT可以幫助加速代碼開發(fā)和檢測漏洞代碼,提高代碼的安全性。GPT-4代碼解釋器的引入改變了人員短缺的組織的游戲規(guī)則,因為繁瑣操作的自動化可以騰出時間讓安全專家專注于戰(zhàn)略問題。通過引入由GPT-4驅(qū)動的Microsoft Security Copilot,Microsoft已經(jīng)在幫助網(wǎng)絡安全人員簡化這些操作。
此外,人工智能聊天機器人工具可以支持事件響應。例如,在發(fā)生機器人攻擊時,ChatGPT和Google Bard可以向安全團隊提供實時信息并幫助協(xié)調(diào)響應活動。該技術還可以協(xié)助分析攻擊數(shù)據(jù),幫助安全團隊識別攻擊源,并采取適當措施來控制和減輕其影響。
組織還可以使用ChatGPT和其他生成式人工智能模型來分析大量數(shù)據(jù),以識別可能表明犯罪機器人存在的模式和異常情況。通過分析聊天記錄、社交媒體數(shù)據(jù)和其他信息來源,人工智能工具可以幫助檢測,并提醒安全團隊注意潛在的機器人攻擊,以免造成重大損害。
新生成式人工智能時代的保護
我們現(xiàn)在已經(jīng)進入了生成式人工智能時代,因此組織面臨著更加頻繁和復雜的網(wǎng)絡攻擊。CISO必須接受這一新現(xiàn)實,并利用人工智能的力量來對抗這些人工智能增強的網(wǎng)絡攻擊。未能實時使用機器學習的網(wǎng)絡安全解決方案最終注定要落后。
例如,我們知道,由于生成式人工智能,組織將見證試圖在其網(wǎng)站上進行欺詐的惡意機器人數(shù)量激增。在一個惡意行為者使用機器人即服務來制造復雜、隱蔽威脅的世界中,選擇不利用機器學習來阻止這些威脅,就像在槍戰(zhàn)中帶刀一樣。因此,現(xiàn)在比以往任何時候都更需要人工智能驅(qū)動的機器人檢測和阻止工具來確保組織網(wǎng)絡安全。
一個恰當?shù)睦邮牵簜鹘y(tǒng)的驗證碼,長期以來被認為是一種值得信賴的網(wǎng)絡安全工具,無法與當今的機器人相提并論。機器人現(xiàn)在使用人工智能來傳遞“老派”驗證碼,如交通信號燈圖像,促使企業(yè)需要首先升級到挑戰(zhàn)流量的解決方案,將驗證碼作為最后的手段,然后僅使用網(wǎng)絡安全豐富的驗證碼。此外,組織可以通過實施多重身份驗證和基于身份的訪問控制來保護自己,這些訪問控制通過用戶的生物識別數(shù)據(jù)授予用戶訪問權限,這將有助于減少未經(jīng)授權的訪問和濫用。
生成式人工智能給組織帶來了重大的安全風險,但如果使用得當,也可以幫助減輕其所造成的威脅。網(wǎng)絡安全是一場貓捉老鼠的游戲,CISO需要領先一步,以保護其組織免受毀滅性的財務和聲譽損害,這些損害可能成為這種新的人工智能驅(qū)動的威脅環(huán)境的一部分。通過了解威脅,并以有效的方式使用技術,CISO可以保護其組織免受生成式人工智能帶來的新出現(xiàn)的攻擊。
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。