精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    AI的“色差”與“糾偏”

    原標(biāo)題:AI的“色差”與“糾偏”

    在美國學(xué)術(shù)界聲援BLM(Black Lives Matter)之后,事情的走向有點(diǎn)難以預(yù)料。

    學(xué)術(shù)界的反種族歧視反省似乎沒有了下文,但是如火如荼的BLM運(yùn)動早已蔓延開來,這次將矛頭指向了AI界。

    事情的起因是杜克大學(xué)提出了一種稱之為PULSE(Photo Upsampling via Latent Space Exploration)的AI算法。它可以輕松將馬賽克級別畫質(zhì)的人臉圖像轉(zhuǎn)化為計(jì)算機(jī)生成的高清畫質(zhì)圖像,也可以“有來有往”地將高清畫質(zhì)給降級到高糊狀態(tài),反正是效果極好。

    問題就出在,PULSE生成的圖像可不保證是還原的原始人物的頭像,而且在人臉膚色上還會進(jìn)行大膽“創(chuàng)新”,把原本是黑膚色的人像變成了白膚色的。比如奧巴馬:

    這一結(jié)果被美國網(wǎng)民發(fā)現(xiàn)之后,紛紛將涉嫌種族歧視的矛頭指向人工智能。然后將事情引向高潮的是AI界的標(biāo)桿性人物Yann LeCun,他在推特上給出了自己的解釋,大意是出現(xiàn)這種偏差的原因是由于數(shù)據(jù)集的偏差。訓(xùn)練數(shù)據(jù)集主要是用了白人照片,如果是換成黑人照片,可能會出現(xiàn)生成的人像更多是黑人的情況。

    LeCun的一番解釋卻換來了兩位同行的反駁,她們聲稱LeCun的解釋是“避重就輕”,忽視了AI的偏見來自于更廣泛的社會不公和偏見的影響。

    為此,LeCun選擇道歉以息事寧人,不愿意將這一話題繼續(xù)擴(kuò)大。然而AI界已經(jīng)為此分成了兩派,就LeCun是否在為“AI的種族歧視”辯護(hù)和是否應(yīng)該為此事道歉吵得不可開交。

    今天,在社交網(wǎng)絡(luò)中不堪其擾的LeCun呼吁所有人停止相互的攻擊,再次申明自己反對一切形式的歧視,并決定退出推特來表明這一態(tài)度。

    相互攻擊的口水戰(zhàn)確實(shí)對于解決問題于事無補(bǔ),但AI算法中存在種種的“偏見”和“歧視”,則仍然是AI界嚴(yán)肅面對的 “事實(shí)性”問題。

    不過,就導(dǎo)致AI偏見的種種原因,人們?nèi)匀辉跔幷摬恍?,而至于如何解決AI中存在的種種偏見,則同樣沒有一致的定論。我們希望盡可能呈現(xiàn)出這一爭論的復(fù)雜樣貌,來探索下破解AI偏見的方案中有無最優(yōu)解。

    AI的“有色眼鏡”世界

    今年5月底,微軟宣布要裁撤80名外包編輯,交由AI算法負(fù)責(zé)接下來的MSN新聞抓取、排版和配圖等工作。

    (MSN 在關(guān)于Jade的報(bào)道中錯(cuò)誤地使用了Leigh的照片)

    然而就在宣布之后不到一周時(shí)間里,AI編輯就捅了婁子,在一篇關(guān)于阿拉伯裔歌手Jade Thirlwall的文章中,配圖卻用成了該團(tuán)隊(duì)另外一個(gè)非裔成員Leigh-Anne Pinnock的照片。更讓人哭笑不得的是,這篇文章正是Jade講述自己曾經(jīng)遭受種族歧視經(jīng)歷的文章。

    (左三是Jade Thirlwall,右一是Leigh-Anne)

    AI算法又用“AI臉盲”的偏見再一次不經(jīng)意地“歧視”了一把Jade和她的伙伴Leigh-Anne。雖然說兩位女團(tuán)成員長得是有那么一點(diǎn)想象,但是AI就不能長長眼,正確區(qū)分出兩人的膚色差別嗎?

    事實(shí)上,AI人臉識別在深色皮膚族裔的識別上,問題一直存在。

    2018年,MIT媒體實(shí)驗(yàn)室的研究員Joy Buolamwini(算法正義聯(lián)盟的組織者),就“人臉識別技術(shù)在識別不同種族和性別的人臉的效果關(guān)系”的研究中發(fā)現(xiàn),一些商業(yè)軟件在識別黑色人種的性別的錯(cuò)誤率要遠(yuǎn)遠(yuǎn)高于白色人種,而且膚色越黑,識別率就越低。

    研究中,她選擇了微軟、IBM和Face++的人臉識別算法。經(jīng)過測試,算法在識別白人男性的錯(cuò)誤率僅為1%,在識別白人女性的錯(cuò)誤率為7%。而到了識別黑人男性的錯(cuò)誤率則升至12%,黑人女性的識別錯(cuò)誤率則高達(dá)35%,也就是每三個(gè)黑人女性就會被錯(cuò)誤識別一次性別。

    而這次研究被哈弗福德學(xué)院計(jì)算機(jī)科學(xué)家Sorelle Friedler評價(jià)為第一次證明人臉識別對不同人群有不同效果的研究。

    其實(shí)之前業(yè)界早已經(jīng)意識到這一問題,AI在計(jì)算機(jī)視覺上面存在的認(rèn)知偏見,可能會導(dǎo)致種族歧視,比如2015年,谷歌的圖像識別技術(shù)就將非裔美國人標(biāo)記為“大猩猩”。

    (美國邊境警察檢查護(hù)照)

    當(dāng)時(shí)出現(xiàn)這樣的狀況,還可以理解為圖像識別算法不夠成熟,而現(xiàn)在這一問題卻仍然并未得到更好的解決。2019年底,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的一項(xiàng)研究表明,世界上許多頂尖的面部識別算法都存在年齡、種族和民族偏見。研究顯示,一些美國本土開發(fā)的面部識別軟件中,中年白人男子的識別準(zhǔn)確率最高,而非裔美國婦女識別錯(cuò)誤率最高,少數(shù)族裔、兒童和老年人的錯(cuò)誤識別率也相對更高。在某些情況下,亞裔和非裔美國人被錯(cuò)誤識別的概率是白人的100倍。

    AI偏見的范圍,自然不僅僅限于人臉識別領(lǐng)域。比如在算法招聘、犯罪風(fēng)險(xiǎn)預(yù)測以及疾病風(fēng)險(xiǎn)評估當(dāng)中,都會因?yàn)樗惴P偷钠詈蛿?shù)據(jù)的不完善導(dǎo)致AI的偏見。

    比如,2018年,研究者在亞馬遜的招聘算法中發(fā)現(xiàn),在技術(shù)職位的簡歷中,對包含有“女性”的一詞的簡歷進(jìn)行了降級。而將AI應(yīng)用于某些人可能再犯罪的風(fēng)險(xiǎn)評估時(shí),更多以司法部的歷史數(shù)據(jù)記錄進(jìn)行訓(xùn)練。而現(xiàn)實(shí)數(shù)據(jù)中,美國黑人就比白人或西班牙裔更容易被警察攔截。

    再比如,美國某公司在利用AI篩選慢性病高風(fēng)險(xiǎn)人群的過程匯總,他們主要根據(jù)患者支付的醫(yī)療費(fèi)用來評估的患者患并發(fā)癥的風(fēng)險(xiǎn)高低。但他們發(fā)現(xiàn),在實(shí)際過程中,當(dāng)黑人和白人患者花費(fèi)相同的情況下,模型給出的黑人患者的風(fēng)險(xiǎn)評分仍會低于白人患者。也就是,即使在風(fēng)險(xiǎn)相似的情況下,該模型也更傾向于選出更多白人患者進(jìn)入護(hù)理計(jì)劃。

    也就是說,在現(xiàn)實(shí)世界中存在的種族歧視、性別、年齡歧視、少數(shù)人群歧視等問題,不僅在AI算法中存在,甚至還會通過一種更直接有效地方式放大。

    AI算法的“色差”體質(zhì),難道真的像LeCun所言,就是AI訓(xùn)練的數(shù)據(jù)集的問題嗎?

    AI“色差”從何而來?

    在我們大多數(shù)人的意識中,科技通常是中立的。不管在全世界任何體制中、面對任何人群,科技遵循的規(guī)則都是客觀的、中立的,就像建造高樓要遵循力學(xué)結(jié)構(gòu)原理,防御新冠病毒要遵循科學(xué)檢測和消殺防護(hù)手段一樣。

    偏偏AI這位科技領(lǐng)域的新寵,從誕生之日起就帶著神秘的算法黑箱和挑戰(zhàn)人類智能的宏偉愿景。同時(shí)不可避免地也帶有了人類設(shè)計(jì)者的主觀色彩和個(gè)人偏見。

    在AI應(yīng)用中,最顯而易見的一種人類性別偏見甚至都沒有上升到算法層面,而僅僅在人類選擇AI助手中就暴露無遺。

    現(xiàn)在,主要的智能音箱或者智能設(shè)備中的AI助手都默認(rèn)為女性名字和女性聲音。當(dāng)然,大多數(shù)用戶也都表現(xiàn)出對于女性聲音的偏好。但這一默認(rèn)出廠設(shè)定隱含著一個(gè)來自現(xiàn)實(shí)社會的偏見,那就是人們更傾向于把女性設(shè)定為服務(wù)助理的角色,繼續(xù)強(qiáng)化了女性的次要地位和順從男性的角色定位。

    在深入到那些由于AI圖像識別算法導(dǎo)致的種族歧視和性別歧視案例中,其實(shí)也可以發(fā)現(xiàn)AI算法的決策過程以及導(dǎo)入訓(xùn)練數(shù)據(jù)的過程中都有研發(fā)者個(gè)人的價(jià)值觀、認(rèn)知缺陷和偏見等因素參與其中。

    比如,在PULSE進(jìn)行高清圖像生成的案例中,LeCun的解釋一定意義上是可能的,就是如果在訓(xùn)練數(shù)據(jù)集中加入更多的黑人照片,那么生成的照片可能會更多是黑人的膚色。但是,AI偏見的鍋也不能完全甩給數(shù)據(jù)偏差(LeCun在此的回應(yīng)確實(shí)有點(diǎn)草率)。

    AI藝術(shù)家Mario Klingemann通過驗(yàn)證指出,PULSE將黑人圖像生成為白人的問題,并非出自數(shù)據(jù),而是算法本身。他通過使用StyleGAN(PULSE也采用了英偉達(dá)的這一算法)從相同像素的奧巴馬圖像中生成的更多是非白人照片。當(dāng)然,Mario也不能真正指出到底是算法在什么情況下出現(xiàn)這種錯(cuò)誤的。

    在對LeCun的回應(yīng)中,在AI正義聯(lián)盟工作的研究者Deborah Raji指出,AI的偏見受到更廣泛的社會不公正和偏見的影響,而不僅僅是使用“正確”的數(shù)據(jù)集來能解決更大的社會不公問題(當(dāng)然Raji的指責(zé)也有點(diǎn)超綱)。

    通過以上爭論,我們其實(shí)可以得出一個(gè)更折中的答案。AI是大規(guī)模帶標(biāo)注的數(shù)據(jù)集訓(xùn)練的產(chǎn)物,數(shù)據(jù)集中反映不同種族、性別的樣本數(shù)據(jù)占比的失衡,確實(shí)將反映到AI算法模型的結(jié)果當(dāng)中,從而又會強(qiáng)化算法模型對于某一類數(shù)據(jù)的判斷,而弱化對缺失數(shù)據(jù)的判斷。而訓(xùn)練數(shù)據(jù)的偏見則來自于人類研究者對于數(shù)據(jù)的收集方式的偏頗。

    在以往的數(shù)據(jù)收集,更多來自于研究者更為熟悉的人種,或者是互聯(lián)網(wǎng)上面的數(shù)據(jù)。但事實(shí)上,這些數(shù)據(jù)也并非“客觀中立”,而早已帶上了人類世界的“偏見”標(biāo)簽。比如在谷歌中,搜索CEO的圖片,絕大多數(shù)都是男性CEO,其比例要遠(yuǎn)遠(yuǎn)高于實(shí)際當(dāng)中的男性CEO比例。而搜索黑人名字,則往往會跟“犯罪”、“逮捕”等標(biāo)簽綁定。此外,在英文搜索中,其他少數(shù)族裔的數(shù)據(jù)也很少會被搜索到。由此形成的數(shù)據(jù)集而訓(xùn)練的模型將延續(xù)人類的偏見。

    一個(gè)典型的案例就可以理解。去年,微軟、谷歌、亞馬遜等AI在識別低收入國家的物品上面,準(zhǔn)確度要遠(yuǎn)遠(yuǎn)低于高收入國家的物品。不完整的數(shù)據(jù)集導(dǎo)致AI也會“嫌貧愛富”了。

    也就是說,AI算法和數(shù)據(jù)集的問題直接導(dǎo)致了偏見和歧視的出現(xiàn),而導(dǎo)致AI算法和數(shù)據(jù)集出問題的原因則來自于人類研究者一開始的認(rèn)知缺陷和原始數(shù)據(jù)隱藏的偏見問題。

    在BLM運(yùn)動愈演愈烈的當(dāng)下,AI偏見問題正從一個(gè)圈內(nèi)被忽視的“頑疾”走出圈外,成為社會大眾關(guān)心的公平正義問題。那么,這是否能成為解決這一問題的最好契機(jī)呢?

    AI“色差”該如何“糾偏”?

    客觀來說,想要真正清除AI算法的這些“色差”偏見,難度極大。不然AI界也不會坐視這個(gè)問題的泛濫。不過,至少在美國非裔男子佛洛依德事件之后,科技公司已經(jīng)開始意識到AI算法帶來歧視問題的嚴(yán)重性了。

    比如,IBM等公司就做了一件“釜底抽薪”的事情——既然AI(僅指人臉識別)有問題,那我不用還不行嗎?

    (IBM現(xiàn)任首席執(zhí)行官Arvind Krishna)

    6月8號,IBM旗幟鮮明地聲明要徹底放棄人臉識別業(yè)務(wù), “反對將面部識別技術(shù)在內(nèi)的任何技術(shù)用于大規(guī)模監(jiān)控、種族定性、侵犯基本人權(quán)與自由,或其他任何不符合我們價(jià)值觀和信任與透明原則的目的?!?/p>

    隨后,亞馬遜和微軟也緊隨其后,只是打了折扣,聲明有條件地限制自己的人臉識別技術(shù)提供給美國警方使用。

    IBM這種自絕于AI的方法,當(dāng)然可以避免人臉識別技術(shù)在種族歧視上的濫用。但是一竿子打死AI并不能徹底解決問題。人臉識別在現(xiàn)實(shí)世界的應(yīng)用既有普遍場景,也有重要作用。通過追根溯源,提高少數(shù)族裔和女性老人等群體的人臉識別準(zhǔn)確度,不是更有意義嗎?

    導(dǎo)致AI偏見的原因可能是復(fù)雜因素的集合,那么解決AI偏見的“藥方”,自然也是需要多管齊下的。綜合來看,糾正AI偏見要從技術(shù)、立法和團(tuán)隊(duì)三方面來整體改進(jìn)。

    在技術(shù)層面,豐富數(shù)據(jù)源類型和規(guī)模,構(gòu)建更公平的數(shù)據(jù)集,這成為解決AI偏見最直接、看起來也最可行的方式。

    在立法層面,建立算法問責(zé)制度,由AI組織成立專業(yè)機(jī)構(gòu)實(shí)現(xiàn)對算法的審查和監(jiān)督。盡管歐洲的GDPR、美國的《算法問責(zé)法案》已經(jīng)有相關(guān)規(guī)定,但實(shí)際操作仍然存在難度,這就要求擁有AI算法的科技企業(yè)在算法透明性和可解釋性上做出巨大讓步。

    在團(tuán)隊(duì)層面,增加科技公司中AI團(tuán)隊(duì)的人群多樣性,特別是女性和有色人種的比例,也許是解決這一問題的可行方法。畢竟,之前的AI技術(shù)大多是由西方白人男性主導(dǎo),這很可能是導(dǎo)致美國眾多AI算法帶有種族歧視、性別歧視的一個(gè)“隱含”原因(但并不能確定其中包含直接的因果關(guān)系)。

    更為重要的是,在今后的算法測試中,在公布結(jié)果前,應(yīng)該加入更多樣化的應(yīng)力測試,包括增加對不同國籍、種族、膚色、性別、年齡等數(shù)據(jù)的測試,提前發(fā)現(xiàn)算法中可能存在的認(rèn)知偏見。

    此外,通過開源社區(qū)和開源技術(shù)來消除AI偏見,也可能是一個(gè)不錯(cuò)的思路。至少首先解決了AI算法的透明性問題。同時(shí),諸如像研究者提出的自動白箱測試技術(shù)——DeepXplore,可以增強(qiáng)了AI應(yīng)力測試的強(qiáng)度,以驗(yàn)證AI的黑盒問題,并消除可能帶來的偏見問題。這也是值得研究者們長期關(guān)注的問題。

    在解決AI偏見的問題上,我們不可能抱著過于激進(jìn)的態(tài)度,希望通過一次社會運(yùn)動就能徹底推動技術(shù)界去消除這一技術(shù)問題,畢竟這一問題的根源更多是來自于人類自身。

    我們的認(rèn)知偏見其實(shí)要遠(yuǎn)遠(yuǎn)多于AI,而AI所做的就是“學(xué)會”并“放大”我們的偏見和歧視。因此,對于AI算法訓(xùn)練的糾偏就顯得刻不容緩,但又不能操之過急。正如AI算法要經(jīng)過一次次調(diào)參的過程來將訓(xùn)練結(jié)果調(diào)整至越來越接近完美的準(zhǔn)確狀態(tài),AI的糾偏也需要這樣一個(gè)一步步緩慢調(diào)整的“調(diào)參”過程,只不過這個(gè)過程要更為復(fù)雜和艱辛。

    在這個(gè)過程中,AI研究者首先是跟自己的認(rèn)知盲區(qū)和個(gè)人偏見做斗爭。如果你認(rèn)為AI中存在的偏見不是什么大問題的時(shí)候,它本身已經(jīng)就是一個(gè)很大的問題了。

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2020-06-30
    AI的“色差”與“糾偏”
    AI算法又用“AI臉盲”的偏見再一次不經(jīng)意地“歧視”了一把Jade和她的伙伴Leigh-Anne。

    長按掃碼 閱讀全文