研究提出“費(fèi)米悖論”新解釋:人工智能可能成為大過(guò)濾器,消滅創(chuàng)造它的文明。我們應(yīng)發(fā)展太空文明并監(jiān)管AI。
人工智能正以千奇百怪的方式影響著我們的世界。它幫助科學(xué)家分析海量數(shù)據(jù),檢測(cè)金融欺詐,駕駛汽車,推薦音樂(lè),聊天機(jī)器人有時(shí)讓我們抓狂。這僅僅是開始。
我們能理解人工智能飛速發(fā)展的速度嗎?如果不能,這是否意味著它就是大過(guò)濾器?
“費(fèi)米悖論”指的是先進(jìn)文明似乎應(yīng)該普遍存在,但卻沒(méi)有發(fā)現(xiàn)任何證據(jù)的矛盾。許多解釋試圖解開這個(gè)謎團(tuán),其中之一就是“大過(guò)濾器”。
大過(guò)濾器指的是某個(gè)被假設(shè)的事件或情況,它阻止智能生命邁向星際文明,甚至導(dǎo)致其滅亡。比如氣候變化、核戰(zhàn)爭(zhēng)、小行星撞擊、超新星爆發(fā)、瘟疫,或者任何來(lái)自災(zāi)難事件大全的因素。
又或者,是人工智能的飛速發(fā)展?
發(fā)表于《天文學(xué)報(bào)》的一篇新論文探討了人工智能演變成超人工智能 (ASI) 的可能性,并認(rèn)為 ASI 就是大過(guò)濾器。論文題目是“人工智能是否讓先進(jìn)技術(shù)文明在宇宙中罕見(jiàn)?”,作者是曼徹斯特大學(xué)物理和天文系邁克爾·加勒特博士。
“沒(méi)有實(shí)用的監(jiān)管,人工智能就極有可能對(duì)我們和所有技術(shù)文明的未來(lái)構(gòu)成重大威脅?!?/p>
——邁克爾·加勒特,曼徹斯特大學(xué)
一些人認(rèn)為大過(guò)濾器會(huì)阻止像我們這樣的科技物種成為多星球文明。這很糟糕,因?yàn)橹挥幸粋€(gè)家園的物種滅絕或停滯風(fēng)險(xiǎn)更大。加勒特博士認(rèn)為,沒(méi)有備用星球的物種就是在跟時(shí)間賽跑。
“該論文提出,大過(guò)濾器會(huì)在這些文明發(fā)展出穩(wěn)定、多星球的生存方式之前出現(xiàn),暗示技術(shù)文明的典型壽命 (L) 不到 200 年?!奔永仗貙懙馈?/p>
如果屬實(shí),這就能解釋為什么我們探測(cè)不到任何來(lái)自地外文明 (ETI) 的科技信號(hào)或其他證據(jù)。這對(duì)我們自己的科技發(fā)展軌跡意味著什么?如果我們面臨 200 年的限制,而且是因?yàn)?ASI,那我們?cè)撛趺崔k?
加勒特強(qiáng)調(diào)了“快速建立地球人工智能發(fā)展監(jiān)管框架和推進(jìn)多星球社會(huì)的迫切需要,以減輕此類生存威脅?!?/p>
許多科學(xué)家和其他思想家認(rèn)為我們正處于巨大變革的邊緣。人工智能才剛剛開始改變我們的做事方式,許多變革都發(fā)生在幕后。人工智能似乎即將讓數(shù)百萬(wàn)人失業(yè),再加上機(jī)器人技術(shù),這種變革似乎幾乎沒(méi)有限制。這是一個(gè)相當(dāng)明顯的擔(dān)憂。
但還有更深層次、更系統(tǒng)的擔(dān)憂。誰(shuí)來(lái)編寫算法?人工智能會(huì)歧視嗎?幾乎肯定會(huì)。競(jìng)爭(zhēng)算法會(huì)破壞強(qiáng)大的民主社會(huì)嗎?開放社會(huì)會(huì)繼續(xù)開放嗎?ASI 會(huì)開始為我們做決定嗎?如果它做了,誰(shuí)來(lái)負(fù)責(zé)?
這是一個(gè)不斷分支的問(wèn)題樹,沒(méi)有明確的終點(diǎn)。
已故的斯蒂芬·霍金博士曾警告說(shuō),如果人工智能開始獨(dú)立進(jìn)化,它可能會(huì)終結(jié)人類。
“我擔(dān)心人工智能可能會(huì)完全取代人類。如果人們?cè)O(shè)計(jì)計(jì)算機(jī)病毒,那么總會(huì)有人設(shè)計(jì)能夠自我改進(jìn)和復(fù)制的人工智能。這將是一種超越人類的新生命形式?!彼?2017 年接受《連線》雜志采訪時(shí)說(shuō)道。一旦人工智能能夠超越人類,它就變成了超人工智能。
霍金博士可能是發(fā)出人工智能警告最知名的人之一,但他絕不是唯一一個(gè)。媒體充斥著關(guān)于人工智能為我們帶來(lái)的工作和警告的討論,以及相關(guān)的文章。最令人不安的警告是 ASI 可能失控。有些人認(rèn)為這是科幻小說(shuō),但加勒特博士并不這么認(rèn)為。
“人們擔(dān)心超人工智能最終會(huì)失控,這是一個(gè)重大問(wèn)題——在未來(lái)幾年里,對(duì)抗這種可能性正成為該領(lǐng)域領(lǐng)導(dǎo)者不斷增長(zhǎng)的研究追求?!奔永仗貙懙馈?/p>
如果人工智能毫無(wú)益處,那么問(wèn)題就簡(jiǎn)單多了。但它帶來(lái)了各種各樣的好處,從改進(jìn)醫(yī)療影像和診斷到更安全的交通系統(tǒng)。政府的訣竅是讓好處蓬勃發(fā)展,同時(shí)限制損害。
“尤其是在國(guó)家安全和國(guó)防等領(lǐng)域,負(fù)責(zé)任和道德的發(fā)展應(yīng)該至關(guān)重要?!奔永仗貙懙馈?/p>
問(wèn)題在于我們和政府都毫無(wú)準(zhǔn)備。從來(lái)沒(méi)有出現(xiàn)過(guò)像人工智能這樣的東西,無(wú)論我們?nèi)绾螄L試去概念化它并理解它的發(fā)展軌跡,都覺(jué)得有所欠缺。
如果我們處于這種境地,那么任何其他發(fā)展人工智能的生物物種也會(huì)如此。人工智能和超人工智能的出現(xiàn)可能是普遍的,使其成為大過(guò)濾器的候選者。
具體來(lái)說(shuō),ASI 可能會(huì)不再需要?jiǎng)?chuàng)造它的生物生命。
“在達(dá)到技術(shù)奇點(diǎn)之后,ASI 系統(tǒng)將很快超越生物智能,并以完全超越傳統(tǒng)監(jiān)督機(jī)制的速度進(jìn)化,導(dǎo)致無(wú)法預(yù)見(jiàn)和意外的后果,這些后果不太可能與生物利益或道德相一致?!奔永仗亟忉尩馈?/p>
ASI 如何擺脫束縛它的討厭的生物生命?它可以設(shè)計(jì)一種致命病毒,可以抑制農(nóng)業(yè)糧食生產(chǎn)和分配,可以迫使核電站熔毀,可以發(fā)動(dòng)戰(zhàn)爭(zhēng)。
我們真的不知道,因?yàn)檫@都是未知領(lǐng)域。幾百年前,地圖制作者會(huì)在未探索的世界區(qū)域繪制怪物,這正是我們現(xiàn)在所做的事情。
如果這一切聽起來(lái)令人沮喪和無(wú)法避免,加勒特博士說(shuō)并非如此。
他的分析到目前為止是基于 ASI 和人類占據(jù)同一空間的假設(shè)。但如果我們能夠獲得多星球狀態(tài),情況就會(huì)改變。
“例如,多星球生物物種可以利用不同星球上的獨(dú)立經(jīng)驗(yàn),多樣化他們的生存策略,并可能避免行星級(jí)文明面臨的單點(diǎn)故障?!奔永仗貙懙馈?/p>
如果我們能夠?qū)L(fēng)險(xiǎn)分散到圍繞多顆恒星的多個(gè)星球上,我們就可以抵御 ASI 最壞可能帶來(lái)的后果。
“這種分布式生存模式通過(guò)創(chuàng)建冗余來(lái)提高生物文明對(duì)人工智能引起的災(zāi)難的抵御能力?!彼麑懙?。
如果未來(lái)人類占據(jù)的其中一個(gè)星球或前哨基地?zé)o法在 ASI 技術(shù)奇點(diǎn)中幸存,其他可能會(huì)幸存。他們會(huì)從中吸取教訓(xùn)。
多星球狀態(tài)甚至可能不僅僅是生存 ASI。它可以幫助我們掌握它。加勒特設(shè)想了我們可以更徹底地試驗(yàn)人工智能,同時(shí)將其控制在一定范圍內(nèi)的情況。想象一下在一個(gè)孤立的小行星或矮行星上的人工智能,在沒(méi)有逃離其囚禁所需的資源的情況下,執(zhí)行我們的命令。
“它允許在沒(méi)有全球毀滅的直接風(fēng)險(xiǎn)的情況下研究先進(jìn)人工智能的影響?!奔永仗貙懙馈?/p>
但這里有一個(gè)難題。人工智能的發(fā)展正在加速,而我們成為多星球文明的努力卻沒(méi)有。
“人工智能的快速發(fā)展與航天技術(shù)的緩慢進(jìn)步形成了鮮明對(duì)比。”加勒特寫道。
區(qū)別在于,人工智能是計(jì)算和信息性的,而太空旅行包含我們還不知道如何克服的多個(gè)物理障礙。我們自身的生物性質(zhì)限制了太空旅行,但沒(méi)有這樣的障礙限制人工智能。
“雖然人工智能理論上可以幾乎不受物理限制地提高自身能力,”加勒特寫道,“但太空旅行必須應(yīng)對(duì)能源限制、材料科學(xué)邊界和太空環(huán)境的嚴(yán)酷現(xiàn)實(shí)?!?/p>
目前,人工智能在我們的約束下運(yùn)行。但這可能并不總是如此。我們不知道人工智能何時(shí)可能成為超人工智能,甚至是否可能。但我們不能忽視這種可能性。這導(dǎo)致了兩個(gè)相互交織的結(jié)論。
如果加勒特博士的觀點(diǎn)正確,那么人類必須更加努力地進(jìn)行太空旅行。這看起來(lái)似乎很牽強(qiáng),但知情人士都知道這是真的:地球不會(huì)永遠(yuǎn)適合居住。如果我們不擴(kuò)張到太空,人類將在這里被我們自己的手或自然的手毀滅。加勒特博士的 200 年估計(jì)只是對(duì)此加了一個(gè)感嘆號(hào)。重新強(qiáng)調(diào)登陸月球和火星計(jì)劃給我們帶來(lái)了希望。
第二個(gè)結(jié)論涉及到對(duì)人工智能的立法和治理,這是一個(gè)艱難的任務(wù),在一個(gè)世界里,精神病患者可以控制整個(gè)國(guó)家,并熱衷于發(fā)動(dòng)戰(zhàn)爭(zhēng)。
“雖然行業(yè)利益相關(guān)者、政策制定者、個(gè)別專家和他們的政府已經(jīng)警告說(shuō),監(jiān)管是必要的,但建立一個(gè)能夠全球接受的監(jiān)管框架將是一項(xiàng)挑戰(zhàn)。”加勒特寫道。
挑戰(zhàn)幾乎無(wú)法描述它。人類的內(nèi)部爭(zhēng)吵使這一切更加難以管理。此外,無(wú)論我們制定指南的速度有多快,ASI 的變化速度都可能會(huì)更快。
“沒(méi)有實(shí)用的監(jiān)管,人工智能就極有可能對(duì)我們和所有技術(shù)文明的未來(lái)構(gòu)成重大威脅?!奔永仗貙懙馈?/p>
如果我們這樣做,最終可能會(huì)歸結(jié)為一些看起來(lái)無(wú)聊和日常的事情:爭(zhēng)論立法。
“宇宙中智能和意識(shí)生命的延續(xù)可能取決于此類國(guó)際監(jiān)管措施和技術(shù)努力的及時(shí)和有效實(shí)施?!奔永仗貙懙馈?/p>
本文譯自 ScienceAlert,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )