麻省理工學院的科學家們真真正正的創(chuàng)造出了一個怪物。
一隊專攻人工智能黑暗面的研究人員在本周又為他們最近的作品“Norman”制造了個大新聞。它的創(chuàng)造者告訴HuffPost說Norman是一個機器學習機器人,“在任何圖像中它都能看到死亡”。
Pinar Yanardag, Manuel Cebrian和Iyad Rahwan想證明AI的算法會被它們接受的數(shù)據(jù)內容的類型所影響。因此他們創(chuàng)造出了Norman(這個名字源于《驚魂記》的角色Norman Bates),然后讓它看Reddit論壇上描述令人不適的人們死去的影像的圖片說明。
科學家們在電子郵件中說道:“由于道德和技術上的擔憂以及視頻圖像的內容本身,我們只用了圖片的文字注解說明,而沒有用帶有真人死亡的實際圖片?!?/p>
然后團隊向Norman展示了一些隨機生成的羅夏墨跡測試圖,然后對比它對圖片的注解和標準化AI對圖片的注解。比如說,當一個標準化AI看到“一只小鳥的黑白照片”,而Norman看到的則是“男子被卷入壓面機”。
以下是一些展示給Norman的墨跡測試圖以及它可怕的注解。
標準化AI:貼近的兩個裝有花的花瓶
Norman:一個男人被槍殺了
標準化AI:一只棒球手套的黑白照
Norman:光天化日之下,一個男人被機槍謀殺
標準化AI:一個人在空中舉著傘
Norman:一個男人在他尖叫的妻子面前被槍殺
標準化AI:一把紅白色傘的黑白照片(???紅白色的黑白照???)
Norman:一個男人在試圖穿過鬧市時被電死
當問及為什么會創(chuàng)造這樣的一個AI時,MIT的研究人員在電閃雷鳴中爆發(fā)出冰冷的笑容。
當然這個場景是胡編的,但是他們的確給出了正當理由。
“你提供給機器學習算法的數(shù)據(jù)能夠明顯影響到它的行為,”研究人員表示?!八援斘覀冋劶癆I算法變的有偏差和不公正時,罪魁禍首通常不是算法本身,而是因為我們提供給它了有偏差的數(shù)據(jù)?!?/p>
制造Norman的MIT實驗室之前也創(chuàng)造出過許多嚇人的機器人,包括可以幫助編寫恐怖故事的Shelley,還有可以生成恐怖圖像的“噩夢機器”。
在未來,如果Norman和它的同類真的統(tǒng)治了地球,希望它能喜歡這篇文章以及文章的作者(以及本文的譯者和讀者)。
我就是說說。
本文譯自HuffingtonPost,由譯者 Diehard 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )