精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    “AI換臉”騙走2億港元 專家支招如何防范

    4月19日消息,過去一年,AI成為火爆全網(wǎng)的熱詞。圍繞AI的應(yīng)用不斷涌現(xiàn),爭議也隨之而來,尤其是AI詐騙,頻頻登上熱搜。

    日前,香港警方披露,一家跨國公司香港分公司的財務(wù)人員,在參加一場內(nèi)部“多人視頻會議”后,被騙2億港元。原來,除了受害人是“真人”,視頻會議里的其他“同事”均是用AI換臉技術(shù)冒充的。今年央視315晚會上也曝光了多起利用AI擬聲、換臉進(jìn)行詐騙的案例。

    這幾起詐騙事件背后都有著深度偽造技術(shù)Deepfake的身影。這不是一項(xiàng)新技術(shù),但過去一年生成式AI技術(shù)的爆發(fā)大大降低了其門檻,使制作難以辨識的換臉視頻越來越容易,“有圖有真相”變得不再靠譜,騙術(shù)更是防不勝防。

    那么,我們該如何保護(hù)自己的個人信息?又該如何識別對話視頻中的是“真人”還是“數(shù)字人”?

    防不勝防的Deepfake

    所謂Deepfake,其實(shí)是“deep learning”(深度學(xué)習(xí))和“fake”(偽造)的合成詞,指的是基于深度學(xué)習(xí)算法,從大量的視頻和圖像數(shù)據(jù)中學(xué)習(xí),偽造出逼真的面部動畫和語音。Deepfake技術(shù)最常見,也是我們最熟知的應(yīng)用,就是AI換臉。

    人們最初認(rèn)識這項(xiàng)技術(shù)是在2017年12月,一位名叫“deepfakes”的網(wǎng)友在Reddit網(wǎng)站發(fā)布了一條視頻,利用AI技術(shù)將成人電影女主角的臉換成了《神奇女俠》主演蓋爾·加朵,引發(fā)廣泛關(guān)注。后來人們開始用他的網(wǎng)名deepfakes命名這項(xiàng)技術(shù)。

    在國內(nèi),deepfakes也深受一些技術(shù)宅的喜歡。網(wǎng)上不乏售賣AI換臉軟件的學(xué)習(xí)教程,除了詳細(xì)的操作指導(dǎo),甚至還附贈合成視頻成品大禮包、明星臉部素材庫、合成輔助工具等。2019年2月,B站UP主“換臉哥”用AI技術(shù)把朱茵飾演的黃蓉?fù)Q成了楊冪的臉,也曾引發(fā)熱議。

    deepfakes小有名氣之后,同名算法在GitHub開源,越來越多的換臉視頻在網(wǎng)上流傳。清華大學(xué)人工智能研究院等機(jī)構(gòu)發(fā)布的《深度合成十大趨勢報告(2022)》顯示,2021年新發(fā)布的深度合成視頻的數(shù)量,較2017年已增長10倍以上。

    2023年ChatGPT突然爆火刷屏,生成式AI“飛入尋常百姓家”,尤其是視頻生成模型Sora的問世,大大降低了AI換臉技術(shù)的門檻。OpenAI CEO阿爾特曼近日在出席活動時表示,“OpenAI 可以將非常高質(zhì)量的 AI 技術(shù)成本降至接近零”。

    但技術(shù)的使用是把雙刃劍,過去一年,利用Deepfake技術(shù)偽造虛假的圖像、視頻和音頻來冒充他人身份進(jìn)行詐騙的事件越來越多,“AI詐騙成功率接近100%”、“AI換臉騙走香港男子2億港元”、“公司老板被AI詐騙430萬”等相關(guān)話題頻頻登上熱搜,對公眾財產(chǎn)、隱私等權(quán)益造成侵害。

    中國信通院人工智能研究中心安全與元宇宙部主任石霖指出,當(dāng)前,深度偽造技術(shù)相對成熟,使用成本在逐漸降低,速度和擬真程度不斷提升,技術(shù)的檢測需求逐漸增大,但檢測難度不斷提升。比如,Sora生成的視頻,很難用肉眼辨別真假。

    如何識破“AI變臉”?

    AI換臉騙走香港男子2億港元的事件傳開后,如何識別對話視頻中的是真人還是數(shù)字人再度成為熱議焦點(diǎn)。

    有專家表示,可以讓對方摁鼻子、摁臉,觀察其面部變化。如果是真人,臉部會變形,如果是數(shù)字人,則不會,或出現(xiàn)破綻。隨后,“懷疑對方AI換臉可以讓對方摁鼻子”登上微博熱搜,目前閱讀量高達(dá)1.3億。

    不過,也有業(yè)內(nèi)人士認(rèn)為這個方法不一定奏效。螞蟻集團(tuán)天璣實(shí)驗(yàn)室安全算法專家朱凱在接受《解放日報》采訪時表示,這個做法有一定的參考價值,但未必完全奏效。

    因?yàn)榇蠖鄶?shù)的生成算法(AIGC)生成的都是干凈的臉,而摁鼻子或者摁臉,意味著給人臉增加了遮擋,相關(guān)算法可能因?yàn)橛?xùn)練時數(shù)據(jù)不夠,從而在生成有遮擋的臉時出現(xiàn)破綻。

    但是,一些比較先進(jìn)的算法已經(jīng)可以在靜態(tài)場景下、有局部遮擋的情況下生成畫面。也就是說,如果只是摁鼻子或者摁臉,有些算法也能給出以假亂真的效果。

    就目前來看,朱凱建議,在摁鼻子或摁臉的同時左右搖晃頭部,這樣一種動起來的方式識別AI換臉。因?yàn)槟壳昂芏郃I換臉的基礎(chǔ)是被模仿者的照片,照片是平面的,生成的“數(shù)字人”也是以正面、平面為主。當(dāng)人臉動起來時,會產(chǎn)生破綻。

    此外,中國計算機(jī)學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟(jì)與安全工作組成員方宇在接受央視采訪時表示,可以要求對方在視頻通話的時候,在臉前通過揮手來識別。這種方式會造成面部數(shù)據(jù)的干擾,偽造視頻會出現(xiàn)抖動或閃現(xiàn)等異常情況。在點(diǎn)對點(diǎn)的溝通中,則可以問一些只有對方知道的問題,來驗(yàn)證對方的真實(shí)性。

    以AI對抗AI

    值得一提的是,Deepfake攻和防是一個相對且不斷精進(jìn)的過程,你在進(jìn)步,Deepfake也在進(jìn)步,“我們要做的就是跑在它的前面”,ZOLOZ產(chǎn)品總監(jiān)陶冶這樣說道。以AI對抗AI,也就是所謂的“用魔法打敗魔法”,是業(yè)內(nèi)在積極踐行的。

    百度、阿里、騰訊、字節(jié)跳動、螞蟻集團(tuán)以及科大訊飛等AI頭部企業(yè),均在通過開發(fā)先進(jìn)的AI算法和工具,積極提升對深度偽造內(nèi)容的識別能力。比如,阿里通過分析視頻細(xì)微特征開發(fā)多種算法,字節(jié)跳動和科大訊飛則結(jié)合內(nèi)容分析和語音識別技術(shù)來維護(hù)網(wǎng)絡(luò)空間的真實(shí)性。

    此外,螞蟻數(shù)科旗下科技品牌ZOLOZ最近還發(fā)布了深度偽造綜合防控產(chǎn)品ZOLOZ Deeper,以攔截用戶刷臉過程中的“AI換臉”風(fēng)險,目前已率先應(yīng)用在身份安全領(lǐng)域。

    據(jù)介紹,ZOLOZ早在2019年就啟動了Deepfake算法研發(fā),彼時主要應(yīng)對一些簡單的人臉攻擊,比如把圖片、視頻、面具等虛假內(nèi)容呈現(xiàn)在攝像頭前面,攻破人臉識別系統(tǒng)。ZOLOZ Deeper是針對注入式、活化等復(fù)雜攻擊手段迭代而來的產(chǎn)品,在服務(wù)印尼某頭部銀行后,產(chǎn)品上線一個月時間內(nèi)實(shí)現(xiàn)了Deepfake風(fēng)險“0漏過”。

    陶冶披露,ZOLOZ聯(lián)合螞蟻安全響應(yīng)中心設(shè)立了超百萬的獎金池,支持安全極客來挖掘ZOLOZ Deeper的漏洞,通過“螞蟻集團(tuán)安全響應(yīng)中心”官網(wǎng)提交漏洞情報?!盎ヂ?lián)網(wǎng)世界沒有絕對的安全,希望聯(lián)合外部的安全技術(shù)人才持續(xù)提升ZOLOZ的安全水位,守護(hù)用戶的安全感?!?/p>

    漏洞懸賞獎金是科技公司“化被動為主動”的安全策略。例如今年有黑客發(fā)現(xiàn)特斯拉系統(tǒng)漏洞,贏得20萬美元獎金和一輛Model 3;微軟曾在2019年送出史上最高一筆漏洞挖掘獎勵,總額高達(dá)20萬美元,稱發(fā)現(xiàn)這一漏洞為數(shù)十億用戶提供了保護(hù)。

    普通人能做什么?

    隨著衣食住行都跟各種互聯(lián)網(wǎng)APP結(jié)合,必然會造成對個人信息的采集和收集。2023年8月15日,我國正式施行《生成式人工智能服務(wù)管理暫行辦法》,從多個方面“劃下紅線”,其中也提到“不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個人信息權(quán)益”。

    對于普通人來說,除了一些辨別AI換臉詐騙的小訣竅,我們都應(yīng)該注意個人信息的保護(hù),尤其要注意圖像、聲音、指紋等生物信息的保護(hù),因?yàn)锳I換臉的數(shù)據(jù)基礎(chǔ)就是被模仿人的照片、視頻等。

    中國信通院人工智能研究中心安全與元宇宙部主任石霖向TechWeb等表示,在個人信息保護(hù)方面,首先建議大家優(yōu)先使用一些大廠或擁有多年品牌經(jīng)驗(yàn)的技術(shù)產(chǎn)品,它們在遵守監(jiān)管落實(shí)上會比較嚴(yán)格,也有比較好的一些個人信息保護(hù)記錄和管理經(jīng)驗(yàn)。

    第二,使用APP時盡量減少對個人資料的留存,比如個人照片的上傳,尤其是發(fā)到社交平臺上,所以少發(fā)一些朋友圈確實(shí)可以減少一些個人信息的采集和搜集。

    此外,我們在日常購物或者是去買房租房時,可能也會被采集個人信息。比如,去看下裝修,信息一登記,一個月之內(nèi)各種電話打來推銷。這種時候留一個假電話,也能夠規(guī)避個人信息被泄露的風(fēng)險。

    需要注意的是,在涉及轉(zhuǎn)賬匯款、資金往來等場景時,務(wù)必第一時間提高警惕,通過回?fù)軐Ψ绞謾C(jī)號等額外通信方式核實(shí)確認(rèn),未經(jīng)核實(shí)不要輕易轉(zhuǎn)賬。(周小白)

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

    贊助商
    2024-04-19
    “AI換臉”騙走2億港元 專家支招如何防范
    4月19日消息,過去一年,AI成為火爆全網(wǎng)的熱詞。圍繞AI的應(yīng)用不斷涌現(xiàn),爭議也隨之而來,尤其是AI詐騙,頻頻登上熱搜。

    長按掃碼 閱讀全文