隨著人工智能的快速發(fā)展,特別是生成式AI在文本和圖像領(lǐng)域的突破,艾薩克·阿西莫夫(Isaac Asimov)提出的三條機(jī)器人法則已難以應(yīng)對(duì)新挑戰(zhàn),我們需要制定第四條定律來(lái)規(guī)范AI與人類(lèi)的交互。
1942年,科幻大師艾薩克·阿西莫夫在他的短篇小說(shuō)《Runaround》中首次提出了三項(xiàng)機(jī)器人定律,后來(lái)在合集作品《我,機(jī)器人》中廣為人知。
* 第一條:機(jī)器人不得傷害人類(lèi),或因不作為而使人類(lèi)遭受傷害。
* 第二條:機(jī)器人必須服從人類(lèi)的命令,除非此命令違背了第一條定律。
* 第三條:機(jī)器人必須保護(hù)自身的生存,但前提是這種保護(hù)不違反第一或第二條定律。
盡管這些法則源于虛構(gòu)作品,但在人工智能技術(shù)日益成熟和普及的今天,它們?nèi)詫?duì)機(jī)器人倫理學(xué)的研究具有重要意義。
然而,現(xiàn)有的三條定律不足以應(yīng)對(duì)我們所處的時(shí)代。如今,人類(lèi)與人工智能正在進(jìn)入前所未有的合作階段,阿西莫夫難以想象的生成式AI能力的快速發(fā)展帶來(lái)了新的挑戰(zhàn)。
深度偽造、虛假信息和詐騙泛濫
由人工智能驅(qū)動(dòng)的欺騙行為日益猖獗,對(duì)社會(huì)造成嚴(yán)重威脅。聯(lián)邦調(diào)查局2024年的網(wǎng)絡(luò)犯罪報(bào)告顯示,涉及數(shù)字操縱和社會(huì)工程的網(wǎng)絡(luò)犯罪造成的損失超過(guò)103億美元。歐洲網(wǎng)絡(luò)安全署于2023年發(fā)布的威脅態(tài)勢(shì)報(bào)告特別指出,深度偽造(看似真實(shí)的合成媒體)正成為數(shù)字身份和信任的新興威脅。
社交媒體上的虛假信息正在蔓延。我曾在疫情期間對(duì)此進(jìn)行了深入研究,可以肯定地說(shuō),生成式AI工具的普及使得其檢測(cè)難度越來(lái)越大。更糟糕的是,由人工智能生成的文章與傳統(tǒng)宣傳手段一樣具有說(shuō)服力,甚至更加具有說(shuō)服力,而且使用人工智能創(chuàng)建令人信服的內(nèi)容只需要很少的努力。
深度偽造現(xiàn)象在社會(huì)各個(gè)領(lǐng)域都在抬頭。僵尸網(wǎng)絡(luò)可以使用人工智能生成文本、語(yǔ)音和視頻來(lái)制造任何政治議題廣泛支持的虛假印象。機(jī)器人現(xiàn)在能夠進(jìn)行電話通話并冒充他人。模擬熟悉聲音的人工智能詐騙電話越來(lái)越常見(jiàn),不久我們就會(huì)迎來(lái)基于AI渲染疊加頭像的視頻電話詐騙的繁榮景象,騙子將利用這種技術(shù)冒充親人來(lái)攻擊最脆弱的人群。我甚至親身經(jīng)歷過(guò)這種情況,我的父親看到了一段我用流利的西班牙語(yǔ)說(shuō)話的視頻后感到驚奇,因?yàn)樗牢以趯W(xué)習(xí)這門(mén)語(yǔ)言(在Duolingo上已經(jīng)堅(jiān)持了400天)。不用說(shuō),這段視頻是AI編輯過(guò)的。
更令人擔(dān)憂的是,兒童和青少年與人工智能代理建立起情感聯(lián)系,有時(shí)無(wú)法區(qū)分與真實(shí)朋友在線互動(dòng)還是與機(jī)器人互動(dòng)。已經(jīng)有自殺案例被歸因于與人工智能聊天機(jī)器人的互動(dòng)。
在2019年的著作《人與合作者》中,著名計(jì)算機(jī)科學(xué)家 Stuart Russell 論述了人工智能系統(tǒng)欺騙人類(lèi)的能力對(duì)社會(huì)信任構(gòu)成了根本性的挑戰(zhàn)。這種擔(dān)憂體現(xiàn)在最近的政策措施中,特別是歐盟的 AI 法規(guī),其中包括要求人工智能交互透明化和明確披露人工智能生成內(nèi)容的規(guī)定。
在阿西莫夫時(shí)代,人們無(wú)法想象人工智能代理將如何利用在線溝通工具和虛擬形象來(lái)欺騙人類(lèi)。
因此,我們需要為阿西莫夫的定律添加第四條:
第四條:機(jī)器人或人工智能不得通過(guò)冒充人類(lèi)來(lái)欺騙人類(lèi)。
實(shí)現(xiàn)可信賴(lài)的人工智能
我們亟需明確界限。盡管人與人工智能的合作可以是建設(shè)性的,但人工智能的欺騙行為會(huì)破壞信任,導(dǎo)致時(shí)間浪費(fèi)、情感困擾和資源濫用。人工智能代理必須自我識(shí)別,以確保我們與他們的互動(dòng)是透明且有效的。除非已由人類(lèi)進(jìn)行重大編輯和改編,否則應(yīng)明確標(biāo)記人工智能生成的內(nèi)容。
第四條定律的實(shí)施需要:
* 在直接交互中強(qiáng)制要求人工智能披露;
* 明確標(biāo)記人工智能生成內(nèi)容;
* 制定人工智能識(shí)別的技術(shù)標(biāo)準(zhǔn);
* 建立執(zhí)行法律框架;
* 推展教育舉措以提高對(duì)人工智能的認(rèn)識(shí)。
當(dāng)然,這一切都 Easier said than done. 現(xiàn)在已經(jīng)開(kāi)始了大量的研究工作,努力尋找可靠的方法來(lái)為人工智能生成的文本、音頻、圖像和視頻進(jìn)行水印或檢測(cè)。實(shí)現(xiàn)我所呼吁的透明度還遠(yuǎn)未解決。
但人類(lèi)與人工智能合作的未來(lái)取決于維持人類(lèi)與人工智能代理之間清晰的界限。正如 IEEE 在2022年的《以倫理為導(dǎo)向的設(shè)計(jì)》框架中所指出的那樣,在人工智能系統(tǒng)中的透明度是建立公眾信任和確保人工智能負(fù)責(zé)任發(fā)展的基礎(chǔ)。阿西莫夫的復(fù)雜故事表明,即使試圖遵循規(guī)則的機(jī)器人也經(jīng)常發(fā)現(xiàn)其行為的意外后果。然而,擁有努力遵守阿西莫夫倫理準(zhǔn)則的人工智能系統(tǒng)將會(huì)是一個(gè)很好的開(kāi)始。
本文譯自 IEEE Spectrum,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )