在美國學(xué)術(shù)界聲援BLM(Black Lives Matter)之后,事情的走向有點難以預(yù)料。
學(xué)術(shù)界的反種族歧視反省似乎沒有了下文,但是如火如荼的BLM運動早已蔓延開來,這次將矛頭指向了AI界。
事情的起因是杜克大學(xué)提出了一種稱之為PULSE(Photo Upsampling via Latent Space Exploration)的AI算法。它可以輕松將馬賽克級別畫質(zhì)的人臉圖像轉(zhuǎn)化為計算機生成的高清畫質(zhì)圖像,也可以“有來有往”地將高清畫質(zhì)給降級到高糊狀態(tài),反正是效果極好。
問題就出在,PULSE生成的圖像可不保證是還原的原始人物的頭像,而且在人臉膚色上還會進(jìn)行大膽“創(chuàng)新”,把原本是黑膚色的人像變成了白膚色的。比如奧巴馬:
這一結(jié)果被美國網(wǎng)民發(fā)現(xiàn)之后,紛紛將涉嫌種族歧視的矛頭指向人工智能。然后將事情引向高潮的是AI界的標(biāo)桿性人物Yann LeCun,他在推特上給出了自己的解釋,大意是出現(xiàn)這種偏差的原因是由于數(shù)據(jù)集的偏差。訓(xùn)練數(shù)據(jù)集主要是用了白人照片,如果是換成黑人照片,可能會出現(xiàn)生成的人像更多是黑人的情況。
LeCun的一番解釋卻換來了兩位同行的反駁,她們聲稱LeCun的解釋是“避重就輕”,忽視了AI的偏見來自于更廣泛的社會不公和偏見的影響。
為此,LeCun選擇道歉以息事寧人,不愿意將這一話題繼續(xù)擴大。然而AI界已經(jīng)為此分成了兩派,就LeCun是否在為“AI的種族歧視”辯護(hù)和是否應(yīng)該為此事道歉吵得不可開交。
今天,在社交網(wǎng)絡(luò)中不堪其擾的LeCun呼吁所有人停止相互的攻擊,再次申明自己反對一切形式的歧視,并決定退出推特來表明這一態(tài)度。
相互攻擊的口水戰(zhàn)確實對于解決問題于事無補,但AI算法中存在種種的“偏見”和“歧視”,則仍然是AI界嚴(yán)肅面對的 “事實性”問題。
不過,就導(dǎo)致AI偏見的種種原因,人們?nèi)匀辉跔幷摬恍?,而至于如何解決AI中存在的種種偏見,則同樣沒有一致的定論。我們希望盡可能呈現(xiàn)出這一爭論的復(fù)雜樣貌,來探索下破解AI偏見的方案中有無最優(yōu)解。
AI的“有色眼鏡”世界
今年5月底,微軟宣布要裁撤80名外包編輯,交由AI算法負(fù)責(zé)接下來的MSN新聞抓取、排版和配圖等工作。
(MSN 在關(guān)于Jade的報道中錯誤地使用了Leigh的照片)
然而就在宣布之后不到一周時間里,AI編輯就捅了婁子,在一篇關(guān)于阿拉伯裔歌手Jade Thirlwall的文章中,配圖卻用成了該團隊另外一個非裔成員Leigh-Anne Pinnock的照片。更讓人哭笑不得的是,這篇文章正是Jade講述自己曾經(jīng)遭受種族歧視經(jīng)歷的文章。
(左三是Jade Thirlwall,右一是Leigh-Anne)
AI算法又用“AI臉盲”的偏見再一次不經(jīng)意地“歧視”了一把Jade和她的伙伴Leigh-Anne。雖然說兩位女團成員長得是有那么一點想象,但是AI就不能長長眼,正確區(qū)分出兩人的膚色差別嗎?
事實上,AI人臉識別在深色皮膚族裔的識別上,問題一直存在。
2018年,MIT媒體實驗室的研究員Joy Buolamwini(算法正義聯(lián)盟的組織者),就“人臉識別技術(shù)在識別不同種族和性別的人臉的效果關(guān)系”的研究中發(fā)現(xiàn),一些商業(yè)軟件在識別黑色人種的性別的錯誤率要遠(yuǎn)遠(yuǎn)高于白色人種,而且膚色越黑,識別率就越低。
研究中,她選擇了微軟、IBM和Face++的人臉識別算法。經(jīng)過測試,算法在識別白人男性的錯誤率僅為1%,在識別白人女性的錯誤率為7%。而到了識別黑人男性的錯誤率則升至12%,黑人女性的識別錯誤率則高達(dá)35%,也就是每三個黑人女性就會被錯誤識別一次性別。
而這次研究被哈弗福德學(xué)院計算機科學(xué)家Sorelle Friedler評價為第一次證明人臉識別對不同人群有不同效果的研究。
其實之前業(yè)界早已經(jīng)意識到這一問題,AI在計算機視覺上面存在的認(rèn)知偏見,可能會導(dǎo)致種族歧視,比如2015年,谷歌的圖像識別技術(shù)就將非裔美國人標(biāo)記為“大猩猩”。
(美國邊境警察檢查護(hù)照)
當(dāng)時出現(xiàn)這樣的狀況,還可以理解為圖像識別算法不夠成熟,而現(xiàn)在這一問題卻仍然并未得到更好的解決。2019年底,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的一項研究表明,世界上許多頂尖的面部識別算法都存在年齡、種族和民族偏見。研究顯示,一些美國本土開發(fā)的面部識別軟件中,中年白人男子的識別準(zhǔn)確率最高,而非裔美國婦女識別錯誤率最高,少數(shù)族裔、兒童和老年人的錯誤識別率也相對更高。在某些情況下,亞裔和非裔美國人被錯誤識別的概率是白人的100倍。
AI偏見的范圍,自然不僅僅限于人臉識別領(lǐng)域。比如在算法招聘、犯罪風(fēng)險預(yù)測以及疾病風(fēng)險評估當(dāng)中,都會因為算法模型的偏差和數(shù)據(jù)的不完善導(dǎo)致AI的偏見。
比如,2018年,研究者在亞馬遜的招聘算法中發(fā)現(xiàn),在技術(shù)職位的簡歷中,對包含有“女性”的一詞的簡歷進(jìn)行了降級。而將AI應(yīng)用于某些人可能再犯罪的風(fēng)險評估時,更多以司法部的歷史數(shù)據(jù)記錄進(jìn)行訓(xùn)練。而現(xiàn)實數(shù)據(jù)中,美國黑人就比白人或西班牙裔更容易被警察攔截。
再比如,美國某公司在利用AI篩選慢性病高風(fēng)險人群的過程匯總,他們主要根據(jù)患者支付的醫(yī)療費用來評估的患者患并發(fā)癥的風(fēng)險高低。但他們發(fā)現(xiàn),在實際過程中,當(dāng)黑人和白人患者花費相同的情況下,模型給出的黑人患者的風(fēng)險評分仍會低于白人患者。也就是,即使在風(fēng)險相似的情況下,該模型也更傾向于選出更多白人患者進(jìn)入護(hù)理計劃。
也就是說,在現(xiàn)實世界中存在的種族歧視、性別、年齡歧視、少數(shù)人群歧視等問題,不僅在AI算法中存在,甚至還會通過一種更直接有效地方式放大。
AI算法的“色差”體質(zhì),難道真的像LeCun所言,就是AI訓(xùn)練的數(shù)據(jù)集的問題嗎?
AI“色差”從何而來?
在我們大多數(shù)人的意識中,科技通常是中立的。不管在全世界任何體制中、面對任何人群,科技遵循的規(guī)則都是客觀的、中立的,就像建造高樓要遵循力學(xué)結(jié)構(gòu)原理,防御新冠病毒要遵循科學(xué)檢測和消殺防護(hù)手段一樣。
偏偏AI這位科技領(lǐng)域的新寵,從誕生之日起就帶著神秘的算法黑箱和挑戰(zhàn)人類智能的宏偉愿景。同時不可避免地也帶有了人類設(shè)計者的主觀色彩和個人偏見。
在AI應(yīng)用中,最顯而易見的一種人類性別偏見甚至都沒有上升到算法層面,而僅僅在人類選擇AI助手中就暴露無遺。
現(xiàn)在,主要的智能音箱或者智能設(shè)備中的AI助手都默認(rèn)為女性名字和女性聲音。當(dāng)然,大多數(shù)用戶也都表現(xiàn)出對于女性聲音的偏好。但這一默認(rèn)出廠設(shè)定隱含著一個來自現(xiàn)實社會的偏見,那就是人們更傾向于把女性設(shè)定為服務(wù)助理的角色,繼續(xù)強化了女性的次要地位和順從男性的角色定位。
在深入到那些由于AI圖像識別算法導(dǎo)致的種族歧視和性別歧視案例中,其實也可以發(fā)現(xiàn)AI算法的決策過程以及導(dǎo)入訓(xùn)練數(shù)據(jù)的過程中都有研發(fā)者個人的價值觀、認(rèn)知缺陷和偏見等因素參與其中。
比如,在PULSE進(jìn)行高清圖像生成的案例中,LeCun的解釋一定意義上是可能的,就是如果在訓(xùn)練數(shù)據(jù)集中加入更多的黑人照片,那么生成的照片可能會更多是黑人的膚色。但是,AI偏見的鍋也不能完全甩給數(shù)據(jù)偏差(LeCun在此的回應(yīng)確實有點草率)。
AI藝術(shù)家Mario Klingemann通過驗證指出,PULSE將黑人圖像生成為白人的問題,并非出自數(shù)據(jù),而是算法本身。他通過使用StyleGAN(PULSE也采用了英偉達(dá)的這一算法)從相同像素的奧巴馬圖像中生成的更多是非白人照片。當(dāng)然,Mario也不能真正指出到底是算法在什么情況下出現(xiàn)這種錯誤的。
在對LeCun的回應(yīng)中,在AI正義聯(lián)盟工作的研究者Deborah Raji指出,AI的偏見受到更廣泛的社會不公正和偏見的影響,而不僅僅是使用“正確”的數(shù)據(jù)集來能解決更大的社會不公問題(當(dāng)然Raji的指責(zé)也有點超綱)。
通過以上爭論,我們其實可以得出一個更折中的答案。AI是大規(guī)模帶標(biāo)注的數(shù)據(jù)集訓(xùn)練的產(chǎn)物,數(shù)據(jù)集中反映不同種族、性別的樣本數(shù)據(jù)占比的失衡,確實將反映到AI算法模型的結(jié)果當(dāng)中,從而又會強化算法模型對于某一類數(shù)據(jù)的判斷,而弱化對缺失數(shù)據(jù)的判斷。而訓(xùn)練數(shù)據(jù)的偏見則來自于人類研究者對于數(shù)據(jù)的收集方式的偏頗。
在以往的數(shù)據(jù)收集,更多來自于研究者更為熟悉的人種,或者是互聯(lián)網(wǎng)上面的數(shù)據(jù)。但事實上,這些數(shù)據(jù)也并非“客觀中立”,而早已帶上了人類世界的“偏見”標(biāo)簽。比如在谷歌中,搜索CEO的圖片,絕大多數(shù)都是男性CEO,其比例要遠(yuǎn)遠(yuǎn)高于實際當(dāng)中的男性CEO比例。而搜索黑人名字,則往往會跟“犯罪”、“逮捕”等標(biāo)簽綁定。此外,在英文搜索中,其他少數(shù)族裔的數(shù)據(jù)也很少會被搜索到。由此形成的數(shù)據(jù)集而訓(xùn)練的模型將延續(xù)人類的偏見。
一個典型的案例就可以理解。去年,微軟、谷歌、亞馬遜等AI在識別低收入國家的物品上面,準(zhǔn)確度要遠(yuǎn)遠(yuǎn)低于高收入國家的物品。不完整的數(shù)據(jù)集導(dǎo)致AI也會“嫌貧愛富”了。
也就是說,AI算法和數(shù)據(jù)集的問題直接導(dǎo)致了偏見和歧視的出現(xiàn),而導(dǎo)致AI算法和數(shù)據(jù)集出問題的原因則來自于人類研究者一開始的認(rèn)知缺陷和原始數(shù)據(jù)隱藏的偏見問題。
在BLM運動愈演愈烈的當(dāng)下,AI偏見問題正從一個圈內(nèi)被忽視的“頑疾”走出圈外,成為社會大眾關(guān)心的公平正義問題。那么,這是否能成為解決這一問題的最好契機呢?
AI“色差”該如何“糾偏”?
客觀來說,想要真正清除AI算法的這些“色差”偏見,難度極大。不然AI界也不會坐視這個問題的泛濫。不過,至少在美國非裔男子佛洛依德事件之后,科技公司已經(jīng)開始意識到AI算法帶來歧視問題的嚴(yán)重性了。
比如,IBM等公司就做了一件“釜底抽薪”的事情——既然AI(僅指人臉識別)有問題,那我不用還不行嗎?
(IBM現(xiàn)任首席執(zhí)行官Arvind Krishna)
6月8號,IBM旗幟鮮明地聲明要徹底放棄人臉識別業(yè)務(wù), “反對將面部識別技術(shù)在內(nèi)的任何技術(shù)用于大規(guī)模監(jiān)控、種族定性、侵犯基本人權(quán)與自由,或其他任何不符合我們價值觀和信任與透明原則的目的?!?/p>
隨后,亞馬遜和微軟也緊隨其后,只是打了折扣,聲明有條件地限制自己的人臉識別技術(shù)提供給美國警方使用。
IBM這種自絕于AI的方法,當(dāng)然可以避免人臉識別技術(shù)在種族歧視上的濫用。但是一竿子打死AI并不能徹底解決問題。人臉識別在現(xiàn)實世界的應(yīng)用既有普遍場景,也有重要作用。通過追根溯源,提高少數(shù)族裔和女性老人等群體的人臉識別準(zhǔn)確度,不是更有意義嗎?
導(dǎo)致AI偏見的原因可能是復(fù)雜因素的集合,那么解決AI偏見的“藥方”,自然也是需要多管齊下的。綜合來看,糾正AI偏見要從技術(shù)、立法和團隊三方面來整體改進(jìn)。
在技術(shù)層面,豐富數(shù)據(jù)源類型和規(guī)模,構(gòu)建更公平的數(shù)據(jù)集,這成為解決AI偏見最直接、看起來也最可行的方式。
在立法層面,建立算法問責(zé)制度,由AI組織成立專業(yè)機構(gòu)實現(xiàn)對算法的審查和監(jiān)督。盡管歐洲的GDPR、美國的《算法問責(zé)法案》已經(jīng)有相關(guān)規(guī)定,但實際操作仍然存在難度,這就要求擁有AI算法的科技企業(yè)在算法透明性和可解釋性上做出巨大讓步。
在團隊層面,增加科技公司中AI團隊的人群多樣性,特別是女性和有色人種的比例,也許是解決這一問題的可行方法。畢竟,之前的AI技術(shù)大多是由西方白人男性主導(dǎo),這很可能是導(dǎo)致美國眾多AI算法帶有種族歧視、性別歧視的一個“隱含”原因(但并不能確定其中包含直接的因果關(guān)系)。
更為重要的是,在今后的算法測試中,在公布結(jié)果前,應(yīng)該加入更多樣化的應(yīng)力測試,包括增加對不同國籍、種族、膚色、性別、年齡等數(shù)據(jù)的測試,提前發(fā)現(xiàn)算法中可能存在的認(rèn)知偏見。
此外,通過開源社區(qū)和開源技術(shù)來消除AI偏見,也可能是一個不錯的思路。至少首先解決了AI算法的透明性問題。同時,諸如像研究者提出的自動白箱測試技術(shù)——DeepXplore,可以增強了AI應(yīng)力測試的強度,以驗證AI的黑盒問題,并消除可能帶來的偏見問題。這也是值得研究者們長期關(guān)注的問題。
在解決AI偏見的問題上,我們不可能抱著過于激進(jìn)的態(tài)度,希望通過一次社會運動就能徹底推動技術(shù)界去消除這一技術(shù)問題,畢竟這一問題的根源更多是來自于人類自身。
我們的認(rèn)知偏見其實要遠(yuǎn)遠(yuǎn)多于AI,而AI所做的就是“學(xué)會”并“放大”我們的偏見和歧視。因此,對于AI算法訓(xùn)練的糾偏就顯得刻不容緩,但又不能操之過急。正如AI算法要經(jīng)過一次次調(diào)參的過程來將訓(xùn)練結(jié)果調(diào)整至越來越接近完美的準(zhǔn)確狀態(tài),AI的糾偏也需要這樣一個一步步緩慢調(diào)整的“調(diào)參”過程,只不過這個過程要更為復(fù)雜和艱辛。
在這個過程中,AI研究者首先是跟自己的認(rèn)知盲區(qū)和個人偏見做斗爭。如果你認(rèn)為AI中存在的偏見不是什么大問題的時候,它本身已經(jīng)就是一個很大的問題了。
免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請自行核實相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。
- 生成式AI云上創(chuàng)新,“全棧聯(lián)動”將成關(guān)鍵詞?
- 大模型進(jìn)化論:AI產(chǎn)業(yè)落地將卷向何方?
- 2024年劇集氪金力大盤點
- “共創(chuàng)”、“造?!背身斄?,傳統(tǒng)品牌緣何要花式出圈?
- 人形機器人瘋狂進(jìn)廠打工!銀河通用、智元、樂聚機器人怕是都瘋了
- 因為送禮電商!2025微信、抖音、淘寶又撕破了臉
- 中國手機市場成績單:華為增長最快,蘋果跌幅最大
- 原以為微軟、亞馬遜、阿里云云計算大局已定!沒想到有這四大變數(shù)
- 崖州灣之旅:看見海與智能,聯(lián)想到了未來
- 榮耀換帥,一艘AI巨輪的舵手更替會帶來什么?
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。