精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    2016年AI十大失敗案例有哪些?

    雷鋒網(wǎng)按:眼看 2016 年還有幾天就要落下帷幕,在過去的一年里,人工智能如雨后春筍般成長起來,甚至有人稱之為“人工智能元年”。自動駕駛、語音識別、風(fēng)靡全球的游戲 Pokémon Go …… 機器似乎已經(jīng)無處不在,無所不能了。

    同時,在這一年,人工智能也闖了不少禍,我們需要對這些錯誤給予更多的關(guān)注,以免在未來重蹈覆轍。雷鋒網(wǎng)了解到,近日路易斯維爾大學(xué)網(wǎng)絡(luò)安全實驗室(Cybersecurity Lab) 的主任 Roman Yampolskiy 發(fā)表了一篇論文,名為《Artificial Intelligence Safety and Cybersecurity : a Timeline of AI Failures》 ,其中列出了人工智能在過去的一年里表現(xiàn)不太好的例子。Yampolskiy 表示,這些失敗都可以歸因于 AI 系統(tǒng)在學(xué)習(xí)階段以及表現(xiàn)階段中犯的錯誤。

    以下是依據(jù) Yampolskiy 的論文以及諸多人工智能專家的意見,國外媒體 TechRepublic 整理而成的名單,排名不分先后。由雷鋒網(wǎng)編譯:

    1.Pokémon Go 讓游戲玩家集中在白人社區(qū)

    7 月份,風(fēng)靡全球的 Pokémon Go 游戲發(fā)布之后,多個用戶注意到極少的 Pokémon 位于黑人社區(qū)。 Mint 的首席數(shù)據(jù)官 Anu Tewary 表示,原因是因為這些算法的發(fā)明者并沒有提供多樣的訓(xùn)練集,而且并沒有花費時間在黑人社區(qū)上。

    2.特斯拉半自動駕駛系統(tǒng)的車禍

    今年,特斯拉的事故在全世界范圍內(nèi)層出不窮。5 月份,在佛羅里達的一條高速公路上,一輛開啟了 Autopilot 模式的特斯拉發(fā)生了車禍,駕駛員致死。這是特斯拉全球首例死亡事件。之后,特斯拉對 Autopilot 軟件進行了重大更新,其 CEO 馬斯克在接受采訪時表示這種更新可以防止事故再次發(fā)生。此外,在中國等其他國家和地區(qū)也出現(xiàn)了多次特斯拉事故。不過,其中一些事故并不能說是 AI 直接導(dǎo)致的。

    3.微軟聊天機器人Tay 散布種族主義、性別歧視和攻擊同性戀言論

    今年春天,微軟在 Twitter 上發(fā)布了一個人工智能驅(qū)動的聊天機器人 Tay,希望它能和網(wǎng)絡(luò)上的年輕人相處愉快。起初,Tay 是為了模仿十幾歲的美國青少年女孩而設(shè)計的,但在推出后不久卻被人帶壞了,變成了一個“熱愛希特勒、諷刺女權(quán)主義”的壞蛋。最終微軟不得不將 Tay “殺死”,并宣布將會對相關(guān)的算法進行調(diào)整。

    4.谷歌的AI 阿爾法狗 AlphaGo 輸了與人類圍棋大師李世石的一局

    今年 3 月 13 日,谷歌阿爾法圍棋與李世石的人機大戰(zhàn)五番棋第四局在韓國首爾四季酒店戰(zhàn)罷,圍棋大師李世石中盤擊敗阿爾法,扳回一局。雖然最后人工智能還是以 1 比 3 的比分獲得了勝利,但是輸了的一局顯示目前的 AI 系統(tǒng)仍然不是很完善。

    “或許李世石發(fā)現(xiàn)了蒙特卡洛樹搜索(MCTS)的弱點。” 新南威爾斯大學(xué)的人工智能教授 Toby Walsh 說道。不過,雖然這被看做是人工智能的失敗,但是 Yampolskiy 認(rèn)為這種失敗是在可接受范圍內(nèi)的。

    5.視頻游戲中,非玩家角色創(chuàng)造出了制作者意料之外的武器

    今年 6 月份,一個配備了 AI 的視頻游戲“Elite: Dangerous” 出現(xiàn)了一些游戲制造者計劃之外的狀況:AI 竟然造出了游戲設(shè)定之外的超級武器。一家游戲網(wǎng)站對此評論:“人類玩家或許會被 AI 創(chuàng)造的奇怪武器打敗。”值得一提的是,隨后游戲開發(fā)者就將這些武器撤銷了。

    6. 人工智能審美也有種族歧視

    在首屆“國際人工智能選美大賽”上,基于“能準(zhǔn)確評估人類審美與健康標(biāo)準(zhǔn)的算法”的機器人專家組對面部進行評判。但由于未對人工智能提供多樣的訓(xùn)練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,“美人在模式識別器中”。

    7.用 AI 預(yù)測犯罪,涉及種族歧視

    Northpointe 公司開發(fā)出了一個用來預(yù)測被指控的罪犯二次犯罪幾率的人工智能系統(tǒng)。這個被稱為“少數(shù)派報告”的算法被指責(zé)帶有種族偏見傾向。因為在測試中,黑人罪犯被標(biāo)注的概率遠遠高于其他人種。此外,另一家媒體 ProPublica 同時指出 Northpointe 的算法“即使除去種族歧視的問題,在大多數(shù)情況下正確率也并不高。”

    8.機器人導(dǎo)致一個兒童受了傷

    Knightscope 平臺曾打造出了一個號稱是“打擊犯罪的機器人”。今年七月份,這個機器人在硅谷的一家商場里弄傷了一個 16 歲的少年。洛杉磯時報援引該公司的話稱這是個“意外的事故”。

    9. 中國用面部識別技術(shù)來預(yù)測罪犯,這被認(rèn)為是有偏見的

    中國上海交大的兩名研究人員發(fā)表了一篇名為“Automated Inference on Criminality using Face Images”的論文。據(jù)國外媒體 Mirror 報道,研究人員對一半是罪犯的 1856 張面部圖片進行分析,并且用一些可識別的面部特征來預(yù)測罪犯,比如唇曲率 ( lip curvature ) 、眼內(nèi)角距 ( eye inner corner distance),甚至還有口鼻角度 ( nose-mouth angle ) 等等。對于該項研究,許多業(yè)界人士質(zhì)疑測試結(jié)果,并提出涉及了道德問題。

    10. 保險公司利用 Facebook 大數(shù)據(jù)預(yù)測事故發(fā)生率

    最后的這個案例來自英格蘭最大的汽車保險商 Admiral Insurance ,該公司今年計劃使用 Facebook 用戶的推文數(shù)據(jù)來測試社交網(wǎng)站和優(yōu)秀司機之間的關(guān)聯(lián)。

    這是對人工智能的濫用。Walsh 認(rèn)為“ Facebook 在限制數(shù)據(jù)方面做得很出色”。由于Facebook 限制該公司獲取數(shù)據(jù),這項被稱作“first car quote”的項目并沒有開啟。

    從上述案例中,雷鋒網(wǎng)(公眾號:雷鋒網(wǎng))的讀者可以看出,AI 系統(tǒng)是很容易變得偏激的。因此人類更需要在多樣化數(shù)據(jù)集上對機器學(xué)習(xí)算法進行訓(xùn)練,避免 AI 產(chǎn)生偏見。同時,隨著 AI 的不斷發(fā)展,保證相關(guān)研究的科學(xué)檢測,確保數(shù)據(jù)多樣性,建立相關(guān)道德標(biāo)準(zhǔn)也變得越來越重要。

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2016-12-30
    2016年AI十大失敗案例有哪些?
    雷鋒網(wǎng)按:眼看 2016 年還有幾天就要落下帷幕,在過去的一年里,人工智能如雨后春筍般成長起來,甚至有人稱之為“人工智能元年”。自動駕駛、語音識別、風(fēng)靡全球的游

    長按掃碼 閱讀全文