2月29日消息,奇安信集團發(fā)布《2024人工智能安全報告》(以下簡稱《報告》)。《報告》認為,人工智能技術的惡意使用將快速增長,在政治安全、網(wǎng)絡安全、物理安全和軍事安全等方面構成嚴重威脅。
《報告》認為,“AI是一種通用技術,通用就意味著既可以用來做好事,也可以被用來干壞事”。具有巨大潛力的AI技術同時帶來兩大主要挑戰(zhàn):一是放大現(xiàn)有威脅,另一個是引入新型威脅。
奇安信預計,未來十年,人工智能技術的惡意使用將快速增長,將在政治安全、網(wǎng)絡安全、物理安全和軍事安全等方面構成嚴重威脅。
報告數(shù)據(jù)顯示,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數(shù)量增長了1000%;奇安信威脅情報中心監(jiān)測發(fā)現(xiàn),已有多個有國家背景的APT組織利用AI實施了十余起網(wǎng)絡攻擊事件。各類基于AI的新型攻擊種類與手段不斷出現(xiàn),甚至出現(xiàn)泛濫,包括深度偽造(Deepfake)、黑產大語言模型、惡意AI機器人、自動化攻擊等,在全球造成了嚴重危害。
同時,《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產大語言模型基礎設施、利用AI的自動化攻擊、AI武器化、LLM自身安全風險、惡意軟件、釣魚郵件、虛假內容和活動生成、硬件傳感器安全等12種重要威脅,對其技術原理、危害情況、真實案例等進行了深入的剖析,旨在讓業(yè)界更全面的認識到AI普及帶來的兩大主要挑戰(zhàn):一方面放大了現(xiàn)有威脅,比如釣魚郵件、惡意軟件和社會工程學等;另一方面是引入了新型威脅,如AI自動化攻擊、AI深度偽造等。
面對AI網(wǎng)絡攻擊、AI武器化等日益嚴峻的安全威脅,《報告》認為,AI技術將會推動安全領域發(fā)生范式變革,全行業(yè)需啟動人工智能網(wǎng)絡防御推進計劃。新一代AI技術與大語言模型改變安全對抗格局,將會對地緣政治競爭和國家安全造成深遠的影響,各國正在競相加強在人工智能領域的競爭,以獲得面向未來的戰(zhàn)略優(yōu)勢。全行業(yè)需啟動人工智能網(wǎng)絡防御推進計劃,包括利用防御人工智能對抗惡意人工智能,扭轉“防御者困境”。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )