極客網(wǎng)·人工智能12月5日 最近一些分析師發(fā)出警告,OpenAI開發(fā)的聊天機器人ChatGPT可以生成惡意軟件。AI生成的代碼可能會給網(wǎng)絡安全造成嚴重威脅,人類編寫的防護軟件無法抵御。
據(jù)Tech Monitor報道,不久前OpenAI正式發(fā)布ChatGPT聊天機器人,它是根據(jù)OpenAI的GPT-3大語言模型開發(fā)的。事實證明ChatGPT可以完成多種任務,比如回答客戶提問,生成代碼,根據(jù)提示撰寫復雜且精準的散文。
但是,ChatGPT還可以用于網(wǎng)絡犯罪,這恐怕是很多人沒有想到的。推特網(wǎng)友@lordx64是一名工程師,他用ChatGPT生成了新的惡意軟件。他指出,用戶可以用OpenAI生成負載,可以具體指定執(zhí)行何種負載以及如何執(zhí)行,這可以用于網(wǎng)絡戰(zhàn)爭。
2019年時OpenAI曾做過嘗試,用AI軟件生成假新聞。給AI一個主題,給出簡單提示,它就能生成連貫文章。即使換一個不同主題,AI也不需要重新訓練就能上崗。
ChatGPT能不能生成惡意軟件?
網(wǎng)絡安全行業(yè)已經(jīng)開始引入AI,它可以快速發(fā)現(xiàn)攻擊并回應。ChatGPT能不能更進一步?能不能生成代碼?牛津大學AI、網(wǎng)絡安全顧問Raj Sharma給出自己的看法:
“這些代碼都是非常基本的代碼,但還是可以用來犯罪。AI有一個擅長的技能,那就是自動化。如果黑客能訓練AI,讓它編寫惡意軟件,它會不斷學習,到時黑客就能擁有一款基于學習的黑客工具?!?/p>
Trend Micro技術專家Bharat Mistry認為,ChatGPT在基礎層面很容易使用,但想讓它生成強大的惡意軟件還是很難,許多黑客都做不到。他說:“聊天機器人越來越多,背后的智能越來越高。網(wǎng)絡犯罪也越來越復雜,黑客必須知道如何調(diào)校引擎,讓它做黑客需要引擎做的事??傊?,實際操作會比預想的復雜很多?!?/p>
Mistry認為,完成這種操作需要很強的技術實力,恐怕只有國家資助的網(wǎng)絡間諜才能做到。他強調(diào):“需要非常強大的團隊才能做到,這樣的工具如果被壞人掌握,那是相當危險的?!?/p>
如何抵擋AI生成的惡意軟件?
用AI系統(tǒng)生成種族主義內(nèi)容和仇恨內(nèi)容不是什么新鮮事,許多人討論過。OpenAI曾刊發(fā)論文,說它開發(fā)的系統(tǒng)可以用來降低虛擬信息傳播成本。
Sharma認為,可以通過控制措施阻止惡意內(nèi)容生成,比如,如果請求次數(shù)太多,或者某類信息播放的次數(shù)很多,就可以啟動審查,如此一來機器就會知道它不該這么做。
對于惡意軟件,那就是另一碼事了。如果想對抗用AI系統(tǒng)生成的惡意代碼,最好的辦法就是用AI來創(chuàng)建保護機制。Sharma稱:“如果有什么黑客工具用到了AI,我們必須用AI來理解其行為,用傳統(tǒng)的安全控制措施是無法應付的?!?/p>
Mistry也認為在此種環(huán)境下應該將AI用作防御手段,因為AI有自己的優(yōu)勢。AI擅于創(chuàng)建“多態(tài)”事物,可以改變形態(tài)去適應每一次交互——與系統(tǒng)的交互。AI引擎可以高速運行、大規(guī)模部署,這是人類做不到的。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )