精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    AI戴上有色眼鏡:你在機(jī)器眼中是好人還是壞蛋?

    大眾的認(rèn)知中,人工智能的決策都是絕對(duì)理性與客觀的,因?yàn)槲覀冎辣澈篁?qū)使它的是冷冰冰卻比千言萬(wàn)語(yǔ)更接近事實(shí)的數(shù)據(jù),然而,近期專家發(fā)現(xiàn),人工智能其實(shí)也會(huì)帶著有色眼鏡去看人。

    據(jù)國(guó)外媒體報(bào)道,斯坦福大學(xué)的一項(xiàng)研究顯示,亞馬遜、蘋果、谷歌、IBM和微軟的語(yǔ)音識(shí)別系統(tǒng)存在種族差異,在白人用戶中出現(xiàn)的錯(cuò)誤,要比在黑人用戶中少得多。

    研究顯示,這五大科技公司的語(yǔ)音識(shí)別系統(tǒng)在白人中錯(cuò)誤識(shí)別單詞的概率為19%。而在黑人用戶中,則提升至35%。此外,大約2%的白人音頻片段被這些系統(tǒng)認(rèn)為是不可讀的。而在黑人用戶中,這一比例卻高達(dá)20%。

    美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)也曾測(cè)試了兩種最常見(jiàn)的人臉識(shí)別算法,得出了四點(diǎn)結(jié)論:

    1. 在一對(duì)一匹配中,大多數(shù)系統(tǒng)對(duì)亞裔和非裔美國(guó)人比對(duì)白人面孔的假陽(yáng)性匹配率更高,有時(shí)是10倍甚至100倍。

    2. 這種情況在亞洲國(guó)家發(fā)展的人臉識(shí)別算法中有所改變,在亞洲和白人之間,假陽(yáng)性的差異非常小。

    3.美國(guó)開(kāi)發(fā)的算法始終不擅長(zhǎng)匹配亞洲、非洲裔美國(guó)人和美洲原住民的面孔。美國(guó)原住民得到的是錯(cuò)誤率最高。

    4. 在一對(duì)多的配對(duì)中,非裔美國(guó)女性的假陽(yáng)性率最低,這使她們被錯(cuò)誤指控犯罪的風(fēng)險(xiǎn)最高。

    事實(shí)上,早在2015年就已經(jīng)存在計(jì)算機(jī)視覺(jué)技術(shù)犯錯(cuò)的例子,表明人工智能技術(shù)存在對(duì)女性和有色人種的偏見(jiàn),實(shí)例包括Google 等科技業(yè)巨頭所提供的高人氣網(wǎng)絡(luò)服務(wù),Google 照片應(yīng)用程序(Google Photos app)被發(fā)現(xiàn)將非裔美國(guó)人標(biāo)記為「大猩猩」,谷歌曾也為此進(jìn)行公開(kāi)道歉。

    在探討如何消除人工智能的不客觀之前,我們先來(lái)看看AI的有色眼鏡到底從何而來(lái)。

    數(shù)據(jù)是“罪魁禍?zhǔn)住?/strong>

    現(xiàn)階段讓AI提升認(rèn)知世界能力的最有效途徑仍然是監(jiān)督學(xué)習(xí),而目前AI算法能學(xué)習(xí)的數(shù)據(jù),幾乎全部都是通過(guò)人力逐一進(jìn)行標(biāo)注而得來(lái)的,數(shù)據(jù)集質(zhì)量的高低直接決定最終模型的效果。

    數(shù)據(jù)標(biāo)注者通常是人類,而人類是“復(fù)雜”的生物。這也是導(dǎo)致AI產(chǎn)生偏見(jiàn)的一個(gè)主要因素,大多數(shù)機(jī)器學(xué)習(xí)任務(wù)都是使用大型、帶標(biāo)注的數(shù)據(jù)集來(lái)訓(xùn)練,AI會(huì)基于開(kāi)發(fā)者提供的訓(xùn)練數(shù)據(jù)推斷出規(guī)律,再將規(guī)律套用在某些資料中。

    打個(gè)比方,在人臉識(shí)別應(yīng)用中,如果用于訓(xùn)練的數(shù)據(jù)里白人男性比黑人女性更多,那白人男性的識(shí)別率將會(huì)更高。

    導(dǎo)致AI產(chǎn)生偏見(jiàn)另一個(gè)原因可以歸于算法本身,一個(gè)常見(jiàn)的機(jī)器學(xué)習(xí)程序會(huì)試圖最大化訓(xùn)練數(shù)據(jù)集的整體預(yù)測(cè)準(zhǔn)確率。

    有缺陷的算法還會(huì)造成惡性循環(huán),使偏見(jiàn)越發(fā)嚴(yán)重。例如谷歌翻譯,會(huì)默認(rèn)使用男性代詞,這是因?yàn)橛⒄Z(yǔ)語(yǔ)料庫(kù)中男性代詞對(duì)女性代詞的比例為2:1。

    算法的原則是由AI自行進(jìn)行學(xué)習(xí),乍看之下很有效率。不過(guò),一但提供的資料不夠全面,或開(kāi)發(fā)者沒(méi)有想方設(shè)法避免歧視,AI推導(dǎo)出的結(jié)果便很容易帶有偏見(jiàn)。

    AI并不理解“偏見(jiàn)”

    偏見(jiàn)這個(gè)詞是人類創(chuàng)造的,也是人類定義的,AI并不能理解偏見(jiàn)的含義。機(jī)器學(xué)習(xí)的方法會(huì)讓AI帶上了有色眼鏡,但是改變 AI 學(xué)習(xí)的方式也不是好的解決方式。

    或許我們應(yīng)該從自己身上找找原因,畢竟導(dǎo)致AI產(chǎn)生偏見(jiàn)的原因,有部分要?dú)w咎于他們所使用的語(yǔ)言。人們需要弄清楚什么是偏見(jiàn),以及偏見(jiàn)在語(yǔ)言中的傳遞過(guò)程,避免這些偏見(jiàn)在日益強(qiáng)大的 AI 應(yīng)用中更大范圍的傳播。

    前微軟副總裁沈向洋博士曾在公開(kāi)課《打造負(fù)責(zé)任的AI》中指出:“人工智能已經(jīng)開(kāi)始做出人類無(wú)法理解的決定了,我們需要開(kāi)啟人工智能的黑箱,了解AI做出決定背后的原因?!?/p>

    算法之所以會(huì)對(duì)人類進(jìn)行區(qū)別對(duì)待,原因在于訓(xùn)練算法用的基準(zhǔn)數(shù)據(jù)集通常是來(lái)自新聞和網(wǎng)頁(yè)的數(shù)據(jù),就存在著由語(yǔ)言習(xí)慣造成的“性別偏見(jiàn)”,算法也自然“繼承”了人類對(duì)這些詞匯理解的性別差異。

    AI技術(shù)距離完全消除技術(shù)偏見(jiàn)還有很長(zhǎng)的一段路,但各大巨頭也已經(jīng)在技術(shù)層面做出努力。

    谷歌開(kāi)源了一項(xiàng)名為“What-If Tool”的探測(cè)工具,IBM將研發(fā)的偏見(jiàn)檢測(cè)工具—AI Fairness 360 工具包開(kāi)源,包括超過(guò) 30 個(gè)公平性指標(biāo)(fairness metrics),和 9 個(gè)偏差緩解算法,研究人員和開(kāi)發(fā)者可將工具整合至自己的機(jī)器學(xué)習(xí)模型里,檢測(cè)并減少可能產(chǎn)生的偏見(jiàn)和歧視。

    寫在最后

    人類的行為是收到外界影響的,而這種語(yǔ)言傳統(tǒng)中出現(xiàn)的偏見(jiàn),是在人文歷史中不斷加深嵌入的,在“偏見(jiàn)”通過(guò)代碼傳播之際,我們必須弄清楚,是否簡(jiǎn)單的語(yǔ)言學(xué)習(xí)就足以解釋我們觀察到傳播中出現(xiàn)的偏見(jiàn)。

    最重要的是大眾需要了解“偏見(jiàn)”從何而來(lái),從而在社會(huì)中消除這種不文明的“偏見(jiàn)”。

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

    贊助商
    2020-03-25
    AI戴上有色眼鏡:你在機(jī)器眼中是好人還是壞蛋?
    大眾的認(rèn)知中,人工智能的決策都是絕對(duì)理性與客觀的,因?yàn)槲覀冎辣澈篁?qū)使它的是冷冰冰卻比千言萬(wàn)語(yǔ)更接近事實(shí)的數(shù)據(jù),然而,近期專家發(fā)現(xiàn),人工智能其實(shí)也會(huì)帶著有色眼鏡去看人。

    長(zhǎng)按掃碼 閱讀全文