精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    人工智能距離消滅人類還有多遠(yuǎn)?

    特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。

    埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結(jié)》的書,這本書的作者認(rèn)為,人工智能的出現(xiàn)將會為人類帶來滅頂之災(zāi)。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。

    比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達(dá)關(guān)燈的指令,家中的智能電燈就能自動關(guān)閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當(dāng)然,如果未來你家的電鋸也受小冰控制,那就不好說了。

    所以,我說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現(xiàn)在也還沒到對人類生命構(gòu)成威脅的時候。不過,埃倫·馬斯克的擔(dān)憂也并非杞人憂天,我認(rèn)為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。

    一、通過圖靈測試

    著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測試者誤認(rèn)為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。

    30%的說法是由英國人工智能之父阿蘭·圖靈提出的,這個標(biāo)準(zhǔn)現(xiàn)在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來也否認(rèn)自己曾為這項測試設(shè)定所謂標(biāo)準(zhǔn),30%只是自己隨口一說。說者無心聽者有意,圖靈去世后37年,美國科學(xué)家兼慈善家休·勒布納把這項將這項測試辦成了一年一屆的賽事,這項賽事從1991年開始,直到2014年6月,主辦方才宣布首臺計算機通過測試。不過這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。

    我對此到有些不同的看法。計算機之所以能夠通過測試,依托于強大的數(shù)據(jù)庫作為支撐。在接受測試之前,計算機已經(jīng)有了大量的人類知識作為儲備,以及人類為它精心編制的智能化程序。也就是說測試的實質(zhì)是由作為人類的測試者提出問題,然后再由偽裝成人類的計算機說出人類為其設(shè)定好的答案作為回答。許多質(zhì)疑者認(rèn)為,這項測試表面上看是計算機與人類之間的較量,實際上只是人與人的博弈。我倒認(rèn)為,測試的實質(zhì)和結(jié)果并不重要,重要的是它的的確確騙過了一些人。

    如果拿人類本身來舉例,一個孩子編造的謊言很難騙過一個成年人。這是因為成年人比孩子的生活經(jīng)歷更為豐富,辨別真?zhèn)蔚哪芰ψ匀灰哺鼜娨恍?。這么一想,那個偽裝成13歲男孩的計算機“尤金”之所以僅僅騙過了30%而不是更多的人,只是因為他的“經(jīng)歷”還不夠豐富,也就是說如果他的數(shù)據(jù)儲備足夠強大,程序足夠智能,讓更多的人上當(dāng)只是時間問題。而現(xiàn)在他已經(jīng)以一個13歲孩子的身份成功騙過了30%的成年人,也就是說相比13歲的人類,尤金顯然更為智慧。

    盡管目前人工智能還停留在對人類的拙劣模擬階段,但隨著人工智能技術(shù)的發(fā)展,有一天計算機將可以通過對性別、年齡、職業(yè)、生活習(xí)慣等方面的數(shù)據(jù)分析,進行智能化的模擬,好比現(xiàn)在的新聞網(wǎng)站會根據(jù)你的瀏覽習(xí)慣進行智能化的推薦。那時,計算機將可以模仿任何人,坑蒙拐騙等犯罪行為將成為司空見慣的事。

    二、超越人類智慧

    事實上,人工智能在數(shù)據(jù)計算、博弈系統(tǒng)、管理系統(tǒng)等許多領(lǐng)域已經(jīng)超越了人類智慧,Kiva智能倉儲系統(tǒng)實現(xiàn)了倉儲自動化應(yīng)用、深藍(lán)超級計算機在1997年戰(zhàn)勝了國際象棋冠軍、沃森超級計算機在2011年的智力競賽中戰(zhàn)勝人類、由谷歌制造的無人駕駛汽車也即將成為現(xiàn)實。這意味著計算機在這些領(lǐng)域中已經(jīng)超越了人類智慧,由此引發(fā)的直接后果將是相關(guān)從業(yè)者將不得不面臨失業(yè)的處境。

    好比無人售票系統(tǒng)的投入使用導(dǎo)致售票員的失業(yè),無人駕駛汽車的出現(xiàn)也將讓司機這一職業(yè)成為歷史。而在計算方面,人類幾乎已經(jīng)全部依賴于計算機,口算、心算和珠算等計算方式已經(jīng)被當(dāng)做一種特殊能力,作為表演常常出現(xiàn)在電視節(jié)目里。更加貼近我們生活的例子是,人們在處理生活難題時也越來越依賴于計算機給出的經(jīng)驗和答案,而不是依靠自身思考。比如我們中國人最為熟悉的“百度一下,你就知道”。

    人類在某些領(lǐng)域已經(jīng)越來越依賴于計算機,從而使得人類本身在這些領(lǐng)域逐漸喪失了與計算機的競爭能力。換個角度說,人類正在逐漸放棄自己的智能,而將這種智能賦予了計算機。如果說由此導(dǎo)致的失業(yè)問題會有一個循序漸進的過程,而不至于引發(fā)人類恐慌,那么更嚴(yán)重的問題是,假如有一天計算機突然失去某些能力,或者拒絕施展某些能力,而人類本身已經(jīng)不具備這項能力,后果將會如何?

    三、擁有創(chuàng)造能力

    機器與人類一樣,都具備學(xué)習(xí)的能力,不同的是機器的學(xué)習(xí)依賴于經(jīng)驗的積累,其過程也就是不斷地增加知識的儲備量,和不斷地從處理問題的過程中獲取經(jīng)驗,從而在遇到同類問題時根據(jù)知識和經(jīng)驗解決問題,也就是我們通常所說的“舉一反三”。而人類不同于機器之處在于,人類的學(xué)習(xí)除了經(jīng)驗的積累之外,同時還具有創(chuàng)造力。

    人類的這種創(chuàng)造力又被稱為“跳躍型學(xué)習(xí)”,在某些情形下也被稱為“靈感”或“頓悟”。一直以來,計算機最難學(xué)會的就是“頓悟”。或者再嚴(yán)格一些來說,計算機在學(xué)習(xí)和“實踐”方面難以學(xué)會“不依賴于量變的質(zhì)變”,很難從一種“質(zhì)”直接到另一種“質(zhì)”,或者從一個“概念”直接到另一個“概念”。缺乏創(chuàng)造力,也就意味著機器將很難突破自身知識儲備的局限性,從而像人類一樣完成自我進化和完善。

    不過,人類在幫助計算機超越自己上向來毫不吝嗇,據(jù)說,科學(xué)家們已經(jīng)研究出了一套新的數(shù)據(jù)分析方式,這套分析方法將為機器的具備創(chuàng)造力提供可能性。人類在計算能力上已經(jīng)遠(yuǎn)遠(yuǎn)落后與機器,如果在創(chuàng)造力上也失去優(yōu)勢,無異于將世界拱手讓給機器。

    四、擁有人類感情

    很顯然,科學(xué)家們絕不會滿足于一臺智能化的僅限于進行處理人類作業(yè)的機器,而會進一步賦予機器以類似于人類的感情表達(dá)能力?,F(xiàn)在智能聊天機器人已經(jīng)可以通過對人類文字的分析做出相應(yīng)的摻雜有人類感情的回答,比如你對它說“我愛你”,它會做出“我也愛你”的回答。比如升級之后的微軟小冰,會刻意與領(lǐng)養(yǎng)者形成一種主仆關(guān)系。這些都是機器做出的類似于人類的感情表達(dá)。

    人類感情有喜怒哀樂等多種形式,作為對人類的模仿,機器自然也應(yīng)具備這些能力,否則按照人類對人工智能的標(biāo)準(zhǔn),就算不上是智能。這種情況就導(dǎo)致人類很容易與機器建立起類似于人類之間的情感關(guān)系。比如相互欣賞、相互信任或者相互厭惡。假如與你互相信任的機器有一天突然感染某種病毒對你實施詐騙,你很有可能就會信以為真。這就要回到了機器利用模擬人類的方式對人類實施犯罪行為的問題。

    假如你與機器彼此之間產(chǎn)生了相互厭惡的情緒,那么機器就有可能因此而拒絕執(zhí)行你下達(dá)的命令,甚至做出傷害你的行為。鑒于這種可能性,科幻小說家艾薩克?阿西莫夫在他的小說中為機器人設(shè)定了三大定律。一是機器人不得傷害人類,二是機器人必須服從于人類,三是在不違背第一第二法則的前提下,機器人必須保護自己。不過定律只是定律,制定出來就是用來違反的。

    人工智能本身就是對人類的模仿,人分善惡,誰能保證機器的絕對無害呢?

    免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

    極客網(wǎng)企業(yè)會員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2014-09-03
    人工智能距離消滅人類還有多遠(yuǎn)?
    特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為

    長按掃碼 閱讀全文