【網(wǎng)易智能訊 8月10日消息】作為一名人工智能研究員,我常常會想到人類對人工智能的恐懼。
然而,目前我也很難想象我開發(fā)出來的計算機怎么樣才能成為未來世界的怪物。有時就會像奧本海默在帶頭建造世界上第一顆核彈之后哀嘆的那樣,我會想我是否也會成為“世界的毀滅者”?
我想,我會在歷史上留名,但確是臭名昭著。那作為一名人工智能科學家,我在擔心什么呢?
對未知的恐懼
由科幻小說作家ArthurClarke設(shè)想并最后由電影導演StanleyKubrick制成的計算機HAL9000就是一個很好的例子。在很多復雜的系統(tǒng)里,例如泰坦尼克號、美國航空航天局的航天飛機、切爾諾貝利核電站,工程師們把許多不同的組件放在一起。設(shè)計師們可能非常清楚每個單獨的元素是如何工作的,但是當這些元素連接在一起時,他們就無法知之甚透,就會產(chǎn)生意外的后果。
所以不能完全了解的系統(tǒng),往往會不受控制并出現(xiàn)意外的后果。一艘輪船的沉沒,兩架航天飛機的爆炸,遍布歐亞大陸的放射性污染,在每一場災難都是一系列小差錯導致的大災難。
而在我看來,目前人工智能也落入了同樣的境地之中。我們從認知科學中學習最新的研究結(jié)果,然后將其轉(zhuǎn)化為一種程序算法并添加到現(xiàn)有的系統(tǒng)中。我們在還不了解智能認知的情況下,便開始對人工智能進行改造。
例如IBM的沃森和谷歌的Alpha系統(tǒng),我們將強大的計算機能力和人造神經(jīng)系統(tǒng)結(jié)合在一起,幫助他們?nèi)〉昧艘幌盗辛钊梭@嘆的成就。如果這些機器出了差錯,可能出現(xiàn)的結(jié)果是沃森不會喊“危險”了或者Alpha不能打敗圍棋大師了,但是這些錯誤都不是致命的。
然而,隨著人工智能的設(shè)計變得更加復雜,電腦處理器變得更快,它們的技能也會得到提升。出現(xiàn)意外的風險也在增加,我們的責任也更重。我們經(jīng)常說“人無完人”,那么我們創(chuàng)造的系統(tǒng)也肯定存在缺陷。
對濫用的恐懼
目前我正在應用“神經(jīng)進化法”來開發(fā)人工智能,在可能引發(fā)的意外后果這一方面,我并不十分擔心。我創(chuàng)造虛擬環(huán)境,開發(fā)數(shù)字生物從而使他們的大腦可以解決日益復雜的任務。我們會評估這些智能生物的表現(xiàn),表現(xiàn)最好的會被挑選出來再次生產(chǎn)并研發(fā)下一代。這樣,經(jīng)過幾代的進化,這些機器生物已經(jīng)逐漸演變出了認知能力。
現(xiàn)在,我們正在給這些機器生物設(shè)定一些非常簡但的任務,比如他們可以做簡單的導航任務,做一些簡單的決定等,但很快我們就會設(shè)計出能夠執(zhí)行更復雜任務更智能的機器,最終,我們希望可以達到人類的智力水平。
在這個過程中,我們會發(fā)現(xiàn)問題并解決問題。每一代機器都能更好地處理前幾代機器曾經(jīng)出現(xiàn)的問題。這幫助我們可以減少在未來他們真正進入世界時出現(xiàn)意外結(jié)果的概率。
此外,這種"代代相傳“的改良方法還可以幫助我們發(fā)展人工智能的倫理道德。最終我們想要演變出是有可信賴性及利他主義這樣人類道德的人工智能。我們可以設(shè)置一個虛擬環(huán)境,給那些表現(xiàn)出友善、誠實和同理心的機器獎勵??赡苓@也是一種確保我們研發(fā)的是更聽話的仆人或值得信賴的伙伴的方法。同時也可以減少出現(xiàn)冷酷殺手機器人的幾率。
雖然這種“神經(jīng)進化法”可能降低出現(xiàn)不可控結(jié)果的可能性,但它并不能防止濫用。但這是一個道德問題,而不是科學問題。作為一名科學家,我有說出真相的義務,我需要報告我在實驗中發(fā)現(xiàn)的東西,不管這種結(jié)果我想不想說。我的重點不是決定我想要什么,而是將結(jié)果展示出來。
對社會掌權(quán)者的恐懼
雖然我是一名科學家,但我仍然是一個人。在某種程度上,我必須將希望和恐懼重新聯(lián)系到一起。不管從政治上考慮還是道德上,我必須好好思考我的工作可能對整個社會產(chǎn)生的影響。
整個研究界或整個社會對于人工智能要做什么或者成為什么都沒有一個明確的定義。當然,這可能是因為我們還不知道它的能力。但我們的的確確需要決定先進人工智能的預期發(fā)展結(jié)果。
人們關(guān)注的一個重要問題便是就業(yè)。機器人目前已經(jīng)在進行一些諸如焊接汽車部件的體力勞動。不久的將來,他們可能也會做一些我們曾經(jīng)認為是只有人類能夠做到的認知工作。自動駕駛汽車的機器人可以取代出租車司機;自動駕駛的飛機的機器人可以取代飛行員。
在未來,當我們需要看病時,我們不用一直排隊,然后等來一個可能已經(jīng)非常疲憊的醫(yī)生來給我們看病。我們可以通過一個已經(jīng)獲得所有醫(yī)學知識的系統(tǒng)進行檢查和診斷,并立即由一個不知疲倦的機器人來完成手術(shù)。法律建議可能來自一個全知的法律數(shù)據(jù)庫;投資建議可能來自市場預測系統(tǒng)。
也許有一天,所有的人類工作都將由機器完成。就連我自己的工作也可以做得更快,因為有大量機器不知疲倦地研究如何制造更智能的機器。
在我們當前的社會,自動化會使更多的人失去工作,那些擁有機器的人將會越來越有錢而其他人則會越來越窮。這不是一個科學問題,而是一個亟待解決的政治和社會經(jīng)濟問題。
對噩夢場景的恐懼
還有最后一種恐懼:如果人工智能持續(xù)發(fā)展并最終超越人類智能,那么超智能系統(tǒng)會發(fā)現(xiàn)它不再需要人類了嗎?當一個超智能生物可以完成我們永遠不能完成的事情,我們?nèi)祟悓⑷绾味x我們自己的位置?我們可以阻止被我們自己創(chuàng)造的機器人從地球抹去?
到那時候一個關(guān)鍵問題是:我們該如何說服超級智能留我們在它們身邊?
我想我會說,我是一個好人,是我創(chuàng)造了你們。我要喚起超智能的同情心使它把我留在身邊。而我則一個富有同情心的人類生存下去。多樣性本身就有其價值,宇宙如此之大以至于人類在其中的存在可能根本不重要。
但我不能代表全人類,代表全人類提出一個統(tǒng)一的觀點太難了。而當我仔細審視我們自己的時候。我們有一個致命的缺陷:我們彼此厭煩。我們互相開戰(zhàn)。我們不平等分配食物、知識和醫(yī)療援助。我們污染地球。世上有很多美好的事情,但是那些錯誤的,糟糕的都讓人類的存在逐漸變得不那么重要。
幸運的是,我們目前還不需要證明我們存在的理由。我們還有時間,大約在50到250年之間,這取決于人工智能的發(fā)展速度。作為一個物種,我們應該團結(jié)在一起,得出一個很好的答案來解釋為什么超級智能不應該把我們消滅掉。但這很難做到:我們嘴上說著我們歡迎多樣性,但實際上卻并非如此,就像我們說我們想拯救地球生物,但最后并非能地做到。
我們每個人,無論是個人還是社會,都需要為這種噩夢般的場景做好準備,利用我們剩下的時間來思考如何向我們創(chuàng)造出來的超智能證明我們?nèi)祟惖拇嬖谑怯袃r值的?;蛘撸覀兛梢哉J為這種事情絕對不會發(fā)生,我們完全無需擔心。但是超智能除了可能會帶物理威脅外,它們也可能也會帶來政治和經(jīng)濟上的危險。如果我們找不到更好的分配財富的方法,人工智能勞動者就會推動資本主義,因為它是只有極少數(shù)人才能擁有生產(chǎn)資料。(選自:ROBOTPHOBIA 翻譯:網(wǎng)易見外智能編譯機器人 審校:楊旭)
【網(wǎng)易智能訊 8月10日消息】作為一名人工智能研究員,我常常會想到人類對人工智能的恐懼。
然而,目前我也很難想象我開發(fā)出來的計算機怎么樣才能成為未來世界的怪物。有時就會像奧本海默在帶頭建造世界上第一顆核彈之后哀嘆的那樣,我會想我是否也會成為“世界的毀滅者”?
我想,我會在歷史上留名,但確是臭名昭著。那作為一名人工智能科學家,我在擔心什么呢?
對未知的恐懼
由科幻小說作家ArthurClarke設(shè)想并最后由電影導演StanleyKubrick制成的計算機HAL9000就是一個很好的例子。在很多復雜的系統(tǒng)里,例如泰坦尼克號、美國航空航天局的航天飛機、切爾諾貝利核電站,工程師們把許多不同的組件放在一起。設(shè)計師們可能非常清楚每個單獨的元素是如何工作的,但是當這些元素連接在一起時,他們就無法知之甚透,就會產(chǎn)生意外的后果。
所以不能完全了解的系統(tǒng),往往會不受控制并出現(xiàn)意外的后果。一艘輪船的沉沒,兩架航天飛機的爆炸,遍布歐亞大陸的放射性污染,在每一場災難都是一系列小差錯導致的大災難。
而在我看來,目前人工智能也落入了同樣的境地之中。我們從認知科學中學習最新的研究結(jié)果,然后將其轉(zhuǎn)化為一種程序算法并添加到現(xiàn)有的系統(tǒng)中。我們在還不了解智能認知的情況下,便開始對人工智能進行改造。
例如IBM的沃森和谷歌的Alpha系統(tǒng),我們將強大的計算機能力和人造神經(jīng)系統(tǒng)結(jié)合在一起,幫助他們?nèi)〉昧艘幌盗辛钊梭@嘆的成就。如果這些機器出了差錯,可能出現(xiàn)的結(jié)果是沃森不會喊“危險”了或者Alpha不能打敗圍棋大師了,但是這些錯誤都不是致命的。
然而,隨著人工智能的設(shè)計變得更加復雜,電腦處理器變得更快,它們的技能也會得到提升。出現(xiàn)意外的風險也在增加,我們的責任也更重。我們經(jīng)常說“人無完人”,那么我們創(chuàng)造的系統(tǒng)也肯定存在缺陷。
對濫用的恐懼
目前我正在應用“神經(jīng)進化法”來開發(fā)人工智能,在可能引發(fā)的意外后果這一方面,我并不十分擔心。我創(chuàng)造虛擬環(huán)境,開發(fā)數(shù)字生物從而使他們的大腦可以解決日益復雜的任務。我們會評估這些智能生物的表現(xiàn),表現(xiàn)最好的會被挑選出來再次生產(chǎn)并研發(fā)下一代。這樣,經(jīng)過幾代的進化,這些機器生物已經(jīng)逐漸演變出了認知能力。
現(xiàn)在,我們正在給這些機器生物設(shè)定一些非常簡但的任務,比如他們可以做簡單的導航任務,做一些簡單的決定等,但很快我們就會設(shè)計出能夠執(zhí)行更復雜任務更智能的機器,最終,我們希望可以達到人類的智力水平。
在這個過程中,我們會發(fā)現(xiàn)問題并解決問題。每一代機器都能更好地處理前幾代機器曾經(jīng)出現(xiàn)的問題。這幫助我們可以減少在未來他們真正進入世界時出現(xiàn)意外結(jié)果的概率。
此外,這種"代代相傳“的改良方法還可以幫助我們發(fā)展人工智能的倫理道德。最終我們想要演變出是有可信賴性及利他主義這樣人類道德的人工智能。我們可以設(shè)置一個虛擬環(huán)境,給那些表現(xiàn)出友善、誠實和同理心的機器獎勵。可能這也是一種確保我們研發(fā)的是更聽話的仆人或值得信賴的伙伴的方法。同時也可以減少出現(xiàn)冷酷殺手機器人的幾率。
雖然這種“神經(jīng)進化法”可能降低出現(xiàn)不可控結(jié)果的可能性,但它并不能防止濫用。但這是一個道德問題,而不是科學問題。作為一名科學家,我有說出真相的義務,我需要報告我在實驗中發(fā)現(xiàn)的東西,不管這種結(jié)果我想不想說。我的重點不是決定我想要什么,而是將結(jié)果展示出來。
- 華為家庭存儲升級鴻蒙 HarmonyOS 4.2.0.39:優(yōu)化協(xié)同操作邏輯,帶來更流暢的使用體驗
- 海信CES2025黑科技突破:液晶電視首發(fā)彩色光源
- TCL創(chuàng)新設(shè)計Playcube投影儀:立方體旋轉(zhuǎn)設(shè)計,便攜內(nèi)置電池,打破傳統(tǒng)投影限制
- 華為小豚當家室外攝像頭升級版:WiFi+網(wǎng)線雙連接,800萬像素真實監(jiān)控,329元超值體驗
- LG新款便攜式電視StanbyME 2:輕裝出行,時尚新選擇
- 五軸折疊仿生機械手,石頭 G30 Space 探索版自清潔掃地機器人顛覆傳統(tǒng),開啟家居清潔新篇章
- 石頭G30掃地機器人:避障能力強悍、底盤升降黑科技,真實體驗顛覆想象,僅售5499元
- 小米人車家全生態(tài)引領(lǐng)未來,高通驍龍跨端互聯(lián)生態(tài)重塑智能生活
- 貴金屬智能戒指追蹤心率,價格高達1500英鎊,你還愿意戴上它嗎?
- 海外新秀閃極子品牌loomos AI眼鏡:低調(diào)奢華,揭開GPT-4o神秘面紗
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。