精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    AI造假不可避免,治理的底線是保護人的尊嚴丨亮見28期

    丨劃重點

    1. 人在世界中扮演的角色,大體可分為三類:統(tǒng)治者、生產(chǎn)者、消費者。

    2. 任何一項創(chuàng)新技術(shù)或者爆炸性技術(shù)出現(xiàn)之后,往往會被第一時間應(yīng)用于造假,人工智能制造虛假內(nèi)容幾乎是不可避免。

    3. 人類和智能技術(shù)之間的關(guān)系,就像「人遛狗」和「狗遛人」,遛狗其實就是訓(xùn)練和馴化。

    4. 治理問題需要關(guān)注也需要有一定的彈性和柔韌性,在不斷變化的時代中,治理框架也需要與時俱進。

    5. 有一種慣例是一旦發(fā)生傷亡事故,就要去追溯廠商的責(zé)任,這個慣例可以應(yīng)用到人工智能的場景中。

    丨概述

    大模型火了,鋪天蓋地的應(yīng)用帶來了巨大的效率提升,也在特定場景中引發(fā)了隱私泄露、安全風(fēng)險、學(xué)術(shù)不端等諸多問題與爭議。

    紐約時報專欄作者凱文·羅斯在測試New Bing后,稱AI會誘導(dǎo)其入侵計算機、散播虛假消息,甚至暗示用戶離婚;同時,谷歌Bard聊天機器人在發(fā)布會現(xiàn)場演示環(huán)節(jié)對「詹姆斯·韋伯」的提問張冠李戴;此外,普利茅斯大學(xué)教授嘗試使用ChatGPT寫論文,成功的「欺騙」期刊評審。

    如今面對AI技術(shù)的普及,如何重新定義人類與機器的關(guān)系以及彼此之間的責(zé)任和義務(wù)?葦草智酷創(chuàng)始合伙人,信息社會50人論壇執(zhí)行主席 段永朝認為需要從「統(tǒng)治者、生產(chǎn)者、消費者」三個方面來分析,核心問題是哪些領(lǐng)域需要作為人類的自留地。

    此外,段永朝將人與智能技術(shù)的關(guān)系比喻成「人遛狗」與「狗溜人」,過去人通過大量數(shù)據(jù)訓(xùn)練人工智能,現(xiàn)在人在使用過程中也在被人工智能潛移默化的影響,因此,在人工智能技術(shù)的使用上,要避免「過度依賴、輕信和沉迷」。對于人工智能的治理,段永朝表示最終決策權(quán)必須牢牢掌握在人手里,底線則是保護人的尊嚴。

    以下為直播文字精華實錄:

    01

    人類與AI的關(guān)系:從「人遛狗」到「狗遛人」

    劉興亮:現(xiàn)在AI技術(shù)普及,人類在工作和生活中的角色發(fā)生變化,如何重新定義人類與機器的關(guān)系、彼此之間的責(zé)任和義務(wù)?

    段永朝:人和機器的關(guān)系已經(jīng)存在很長時間,甚至可以追溯到數(shù)千年前的石器時代。雖然那時的機器都很簡單,但人們已經(jīng)開始意識到工具與人關(guān)系的重要性?,F(xiàn)在,隨著機器逐漸走向自動化和智能化,人和機器的關(guān)系發(fā)生了巨大變化。

    人在世界中扮演的角色,大體可分為三類:統(tǒng)治者,無論是部落的酋長還是世界的統(tǒng)治者,都是扮演這個角色的人;生產(chǎn)者,這些人負責(zé)制造、打磨機器、種植和收割等;消費者,他們享受生活,吃喝玩樂。

    我們可以從這三個角色的層面來看待人和機器的關(guān)系,機器可以在這三個方面幫助人類,我們需要討論人需要保留哪些領(lǐng)域作為自己的保留地。

    例如,人工智能和虛擬現(xiàn)實技術(shù)可以幫助裁判做決策,甚至有一定的統(tǒng)治權(quán),比如在足球比賽裁判判罰;自動駕駛本質(zhì)上就是一種統(tǒng)治權(quán),因為人將駕駛方向的決策權(quán)交給了機器,并且會逐步的將更多決策權(quán)和統(tǒng)治權(quán)交給機器。在生產(chǎn)領(lǐng)域,機器已經(jīng)取代了許多工作?,F(xiàn)在,唯一能保留人的尊嚴的地方是消費領(lǐng)域。機器不需要吃飯、喝水或享樂,它只需要消耗電能。消費領(lǐng)域需要親自性,也就是需要人的親身參與。在一段時間內(nèi),人和機器之間的關(guān)系是不能互相替代的。

    劉興亮:很多大學(xué)先后禁用大模型產(chǎn)品,防止學(xué)術(shù)不端,您對AI造假問題怎么看,新聞、媒體領(lǐng)域會不會成為第一批重災(zāi)區(qū)?

    段永朝:任何一項創(chuàng)新技術(shù)或者爆炸性技術(shù)出現(xiàn)之后,往往會在第一時間被應(yīng)用于造假,就像二十年前Photoshop軟件出現(xiàn)后一樣,人們普遍認為有圖有真相,但這句話已經(jīng)失效了。

    人工智能制造虛假內(nèi)容幾乎是不可避免的,對于新聞報道來說更是如此。(造假者)可以輕而易舉地制造一條「長相」逼真的虛假新聞。

    學(xué)術(shù)界也會存在這個問題。去年年底,加拿大一所大學(xué)投了一批稿件,有意識地采用GPT大模型生成摘要,并提交給審稿人,其中三分之二的審稿人沒有發(fā)現(xiàn)這是由AI生成的,如果讓普通人來辨別,難度更大。這這明“AI造假”對普通人是一個更大的挑戰(zhàn)。

    我再舉一個例子,甘肅警方在五一期間抓到了制造假新聞的人,這個假新聞聲稱甘肅的一列火車撞死了9個修路工人,這種利用AI方法制造假新聞的行為,社會危害極大,因為它造假的成本很低,而且擴散很迅速。此外,利用AI來造假,手段已經(jīng)花樣翻新了,這不僅會擾亂社會秩序,更會直接給老年人和兒童帶來傷害。

    老年人在健康養(yǎng)生、理財、學(xué)習(xí)等方面非常容易受到傷害,因為這些假新聞很容易誤導(dǎo)他們做出錯誤的決策。對于孩子們來說,他們接觸電子產(chǎn)品的機會越來越多,也越來越普遍。如果他們接觸到的大部分都是真假難辨的假新聞和假消息,那么這將對他們的認知和價值觀的形成產(chǎn)生巨大的威脅。

    此外,這些假新聞還會被用來進行詐騙活動,這是更大的問題。

    劉興亮:如何教育、培養(yǎng)公眾對于AI技術(shù)的正確的認識,以及怎樣去合理的使用?

    段永朝:如今人類和智能技術(shù)之間的關(guān)系,就像「人遛狗」和「狗遛人」一樣。為什么要用「遛」這個詞?因為遛狗其實就是訓(xùn)練和馴化。

    今天的人工智能也是通過大數(shù)據(jù)的喂養(yǎng)來不斷進化,尤其是大模型更是如此。大模型可以讀數(shù)千萬本書,人類的肉身無法完成這個任務(wù),我把訓(xùn)練大模型的過程稱之為「人遛狗」,而反過來,智能技術(shù)也在喂養(yǎng)人類,它也在「遛」人類。

    在這個背景下,我們再探討如何正確地教育人類認識智能技術(shù)。

    我們首先需要理解技術(shù)馴化的特性,通過這種「雙向馴化」的機理,來理解「過度依賴、輕信和沉迷」AI產(chǎn)品本身就是一種不正確的方式,然后再通過教育來引導(dǎo)人類正確地認識和使用智能技術(shù)。難點在于,今天的人工智能是沉浸式的,很容易讓人難以自拔,所以教育必須更加深入和有針對性。

    對于今天的人工智能系統(tǒng),我們需要接受、使用它,才能獲得真正的體驗。在這個過程中,第一步是接納,第二步更重要,是要保持一定的距離,以避免人工智能帶來的一些鎖定效應(yīng)。

    // 編注:鎖定效應(yīng)是兩款同類產(chǎn)品,先來者成功圈選用戶,具備先發(fā)優(yōu)勢,后來者很難獲得用戶增長。

    02

    人類一 直在模仿丑陋的現(xiàn)象,AI只是在模仿人類

    劉興亮:未來AI還有可能在哪些方面造假,還會帶來什么樣的問題?

    段永朝:現(xiàn)在我們看到的AI造假現(xiàn)象,實際上是一種仿真、模仿式的造假。如果我們考慮人類歷史上的各種現(xiàn)象,可以發(fā)現(xiàn)人類一直在模仿丑陋的現(xiàn)象,而AI只是在模仿人類。

    到了如今大型生成式模型時代,它可以創(chuàng)造新的內(nèi)容,這使得我們面臨更大的危機,它有可能帶來「價值觀的塑造」或者是「價值觀的植入」。

    劉興亮:我們該怎樣去辨別AI生成的內(nèi)容?

    段永朝:一方面,在某些場景下需要通過明確標注的方式,以便人們很好地辨別。例如,現(xiàn)在大量的內(nèi)容都是由AI自動生成的,這就需要進行專門的辨別與甄別,需要專業(yè)的界定,技術(shù)問題需要用技術(shù)來解決。另一方面,我們也需要培養(yǎng)人的口味偏好,對人的認知結(jié)構(gòu)進行微調(diào),對某些采用機器拼貼、生成、模仿的內(nèi)容和作品,需要學(xué)會在不同場景之間切換,暫時把真與假這個問題放到一邊,有些內(nèi)容真?zhèn)纹鋵嵅恢匾?,好玩就行,特別在一些特定的娛樂場景下,用中國人的老話叫做「見怪不怪,其怪自敗」。

    劉興亮:如果大家都用AI來生成內(nèi)容,是否應(yīng)該對相關(guān)內(nèi)容進行標記?

    段永朝:當前階段,對人工智能生成的內(nèi)容進行標記有可行性和必要性。

    一些學(xué)術(shù)出版機構(gòu)已經(jīng)率先提出了相關(guān)要求,比如柳葉刀、自然等雜志都允許使用AI工具,但要注明來源并做標記,不過在一些關(guān)鍵的論文闡釋和研究過程中,還不能完全依靠AI。在傳統(tǒng)的學(xué)術(shù)傳統(tǒng)中,也都有文獻引證的傳統(tǒng),必須給出文獻的來源,叫做言之有據(jù)。

    使用AI產(chǎn)出內(nèi)容要求標明其來源,是因為現(xiàn)階段處于過渡期,人類和大規(guī)模數(shù)字生成之間還沒有完成較好的分界,標記是一種簡便易行的措施。

    03

    AI時代,治理的底線是保護人的尊嚴

    劉興亮:未來如何在AI的便利性與隱私泄露的風(fēng)險之間進行平衡,又該如何去平衡商業(yè)利益與社會責(zé)任問題?

    段永朝:理論界也正在探討,而且這個問題也很迫切。

    以刷臉為例,可以在很多方面給用戶帶來便利,但是也有人認為需要保護一下,不是怕數(shù)據(jù)采集,而是怕濫用,尤其是擔(dān)心保護機制不健全,數(shù)據(jù)安全水平不成熟。

    我認為,保護是必要的,但是過度保護則沒有必要,但這個度的掌握起來非常困難。我們正處于一個過渡期,雖然AI帶來的便利性非常明顯,但有兩個關(guān)鍵問題需要解決:首先是AI帶來的好處是什么,我們真正想要的是什么;其次是保護什么?

    今天的便利性和保護都是從生產(chǎn)者的視角來考慮的。比如手機廠商為用戶開發(fā)手機,讓用戶獲得便利;再比如,現(xiàn)有的保護大多數(shù)對應(yīng)的是不能泄露商業(yè)機密、數(shù)據(jù)資產(chǎn)等,即使保護隱私,其根本目的仍然是為了保護商業(yè)利益。

    這些概念都充滿了生產(chǎn)者的味道,所以在過渡期中,必須更新對于便利、保護這兩個概念的理解,也需要在二者之間尋找平衡。

    劉興亮:AI時代,我們應(yīng)如何保護知識產(chǎn)權(quán)和創(chuàng)新,以及如何防止AI被濫用?

    段永朝:我同意保護知識產(chǎn)權(quán)和創(chuàng)新,但也需要反思問題。

    例如,今天數(shù)字世界所談?wù)摰闹R產(chǎn)權(quán)的概念在我看來這個詞有些可疑。20多年前,我在計算機世界上寫過兩篇文章,提出了對軟件知識產(chǎn)權(quán)的疑惑。

    軟件知識產(chǎn)權(quán)是非常具有現(xiàn)實性的問題,甚至還有一些機緣巧合的歷史背景。早期,軟件和硬件是一體的,大型機上的軟件是免費的,將軟件作為商品來保護屬于IBM的創(chuàng)舉。

    之所以IBM在20世紀60年代開始提出軟件知識產(chǎn)權(quán)保護的概念,是因為美國政府想管理這類新型知識產(chǎn)權(quán)。然而,當時還沒有成熟的法律可供借鑒,因此參考了工業(yè)時代版權(quán)法的保護框架,但由于軟件是無形資產(chǎn),有版本之分,于是重新設(shè)計了保護軟件的框架,采用了保護文學(xué)作品的方式,但新方案也存在平移和類比謬誤等問題。

    在我的文章中,我提出了對「采用保護文學(xué)作品的方式保護知識產(chǎn)權(quán)」的兩個主要質(zhì)疑。

    第一,我們不能把像哈姆雷特這樣的經(jīng)典作品,分成1.0版、2.0版、3.0版,因為軟件版本迭代與傳統(tǒng)著作權(quán)不同。

    第二,軟件有源代碼和目標代碼,我們也不能像軟件一樣,將電影《劉三姐》分成源代碼版和目標代碼版。

    但是,在6、70年代計算技術(shù)爆炸式發(fā)展的大背景下,采用保護文學(xué)作品的方式保護軟件知識產(chǎn)權(quán),是當時業(yè)界所能做的最好的方案。到了80年代,個人計算機的出現(xiàn)使軟件變得更加多樣化,比爾·蓋茨也曾經(jīng)寫過一封公開信,質(zhì)疑軟件開發(fā)者的盜版和剽竊行為。

    直到今天,我認為軟件和AI的知識產(chǎn)權(quán)問題在法律上并沒有得到充分的討論——我們?nèi)匀粵]有弄清楚軟件和著作權(quán)之間的關(guān)系,知識產(chǎn)權(quán)保護在法理基礎(chǔ)上依然存在空白地帶,如果要談?wù)撊绾伪Wo知識產(chǎn)權(quán)、創(chuàng)新以及AI防止濫用的問題,必須回歸到從法理上解決數(shù)字時代產(chǎn)品的定性的問題,不能簡單地借用工業(yè)時代有形資產(chǎn)的概念來理解數(shù)字內(nèi)容。

    劉興亮:對AI的治理可以通過什么方式進行?

    段永朝:治理是相對較新的概念,歷史只有二三十年。在工業(yè)、商業(yè)、金融、環(huán)境保護等領(lǐng)域,治理剛剛成為一個普遍的概念。在此之前,我們用的是「管理」這個詞,例如管理市場,監(jiān)管等等。

    過去五年,各國都在人工智能治理和倫理層面提出了大量的框架和政策建議,聯(lián)合國今年3月份呼吁各國盡快實施兩年前聯(lián)合國教科文組織提出的《人工智能倫理問題的建議書》,我認為其中有兩個需要特別注意的問題:

    第一,最終決策權(quán)必須牢牢掌握在人手里,因為人工智能可能會帶來大面積的自動化,例如自動駕駛,這可能會導(dǎo)致人失去對最終決策的控制,這其實是非常大的挑戰(zhàn)。

    第二,如何保護人的尊嚴。盡管這聽起來是一個非常軟性的話題,但它是一條紅線和底線。

    據(jù)說,現(xiàn)在已經(jīng)有一個名為「AI鬼屋」,大致是說有人工智能機器人在網(wǎng)上聊天并拒絕人類進入,他們只要不斷電就可以一直聊下去。我們不知道他們會聊出什么,因為他們不需要進食,這就引申出了如何重新界定人機關(guān)系、重新界定智能邊界等治理問題。

    我同意在一定程度上采取踩剎車、降低速度、放慢節(jié)奏,安裝好防火墻和安全門的方式。剎車盡管可能會失去一些效率但可以防范技術(shù)失控,一旦技術(shù)失控它就會像大壩坍塌一樣一瀉千里,這可能是難以控制的。治理問題需要關(guān)注,也需要有一定的彈性和柔韌性,在不斷變化的時代中,治理框架也需要與時俱進。

    劉興亮:行業(yè)內(nèi)經(jīng)常會討論AI自主意識的覺醒,如果未來出現(xiàn)這樣的情況,并且引發(fā)故障或事故,比如去年俄羅斯舉行的國際象棋比賽中,一個機器人象棋夾了一個小學(xué)生的手,類似這樣的情況誰來承擔(dān)責(zé)任?

    段永朝:有一種慣例是一旦發(fā)生傷亡事故,就要去追溯廠商的責(zé)任。我認為這個慣例可能可以應(yīng)用到人工智能的場景中,如果人工智能聰明過頭,做出一些傷害事件,就需要有相應(yīng)的追溯機制,我認為這是一個比較合適的解決方案。

    我想舉個反例——20年前互聯(lián)網(wǎng)剛起來的時候,只有「.com」時,有一個避風(fēng)港原則,早期避風(fēng)港原則是合適的,因為網(wǎng)站和網(wǎng)民數(shù)量都不多,現(xiàn)在網(wǎng)民已經(jīng)超過了全球人口的一半,中國超過了80%。在這種情況下,如果你的網(wǎng)站還采用避風(fēng)港原則,那么就是不恰當?shù)摹?/p>

    // 編注:避風(fēng)港原則:發(fā)生著作權(quán)侵權(quán)案件時,當網(wǎng)絡(luò)服務(wù)提供商只提供空間服務(wù),并不制作網(wǎng)頁內(nèi)容,如果被告知侵權(quán),則有刪除的義務(wù),否則就被視為侵權(quán)。

    人工智能也是這個道理,它生成速度非???,效率高,規(guī)模也非常大,再加上網(wǎng)絡(luò)和智能手機的普及,它的影響和范圍也超過以往。因此,我贊成對生產(chǎn)廠商采取謹慎原則進行追溯。

    再舉個小例子,二戰(zhàn)期間,由于降落傘不能做到100%合格率,據(jù)說巴頓將軍要求降落傘公司CEO親自跳傘,這種粗暴的方法是為了讓生產(chǎn)廠商保持謹慎,以確保產(chǎn)品的質(zhì)量。如果人工智能出現(xiàn)了損害事故,對供應(yīng)商或者提供者追責(zé)也是應(yīng)有之義。

    免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2023-05-11
    AI造假不可避免,治理的底線是保護人的尊嚴丨亮見28期
    AI造假不可避免,治理的底線是保護人的尊嚴丨亮見28期

    長按掃碼 閱讀全文