AI Now 研究所在今日發(fā)布的一份報(bào)告中稱,人工智能行業(yè)面臨著“多樣化危機(jī)”,并且直指該領(lǐng)域方向的“關(guān)鍵問題”。 報(bào)告發(fā)現(xiàn),女性和有色人種在 AI 領(lǐng)域的比例嚴(yán)重不足,約 80% 人工智能教授性別為男性。即便是 Facebook 和 Google 這樣的大公司,也只有大約 10% 的女性 AI 研究人員,更別提有色人種只占其中的一小部分了。
報(bào)告截圖(來自:AI Now | PDF ,via TheVerge )
AI Now Institute 聯(lián)席主管 Meredith Whittaker 一針見血地指出,在打造影響其他人群的工具上,AI 領(lǐng)域缺乏多樣性、過于“白人直男癌”了。
更糟糕的是,通過修復(fù)潛在求職者“渠道”來改善問題的方案,很大程度上也都失敗了。 研究人員寫到:“經(jīng)過數(shù)十年的管道研究、評(píng)估了從學(xué)校到行業(yè)的各類求職者流動(dòng),AI 領(lǐng)域在多樣性上并未取得實(shí)質(zhì)性進(jìn)展”。
為此,AI Now Institute 提出了一些改善問題的建議,比如企業(yè)能夠發(fā)布更多按照種族和性別劃分的補(bǔ)償數(shù)據(jù),以及通過公布騷擾/歧視報(bào)告,來提升透明度。
有觀點(diǎn)指出, 盡管多樣性是科技行業(yè)難以逾越的鴻溝,但其在 AI 領(lǐng)域埋下的風(fēng)險(xiǎn)卻要大得多, 尤其是某些潛在含有偏見的技術(shù)(比如面部識(shí)別),可能會(huì)不成比例地影響歷史上被邊緣化的那部分群體。
其實(shí)早在 2017 年,就有面部掃描識(shí)別程序存在不公正現(xiàn)象的批評(píng)。但除了更加嚴(yán)格的測(cè)試,AI 工具的制造商們,也必須切實(shí)最好風(fēng)險(xiǎn)規(guī)避,將這些系統(tǒng)打造得既安全又公平。
早前亞馬遜因 Rekognition 面部識(shí)別技術(shù)存在偏見而遭到炮轟,谷歌也在各界壓力傳導(dǎo)下成立了人工智能審查委員會(huì)。
研究人員指出,“ 人工智能中領(lǐng)域的多樣性危機(jī),已有詳細(xì)記錄且造成了廣泛的影響, 涉及行業(yè) / 學(xué)術(shù)領(lǐng)域的不平等、招聘 / 晉升差異、反映和擴(kuò)大有偏見的觀念、以及自動(dòng)化系統(tǒng)中的生物識(shí)別等方面”。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )