“有人的地方,就有偏見,數(shù)據(jù)亦然?!?/p>
在《Futurama》這部漫畫里,機器人法官風趣而勇敢,但是現(xiàn)實中,COMPAS算法卻很難讓人笑得出來。
譯注:
COMPAS全稱是Correctional Offender Management Profiling for Alternative Sanctions,以“替代性制裁為目標的懲教犯管理畫像”。簡單理解,就是對嫌疑人進行人工智能畫像,以量刑或者判斷是否假釋。類似于2002年上映的電影《少數(shù)派報告》,將犯罪的萌芽消滅于襁褓之中。但此處提出COMPAS是因為這一算法因數(shù)據(jù)集或者其他問題,會產生對有色人種或特殊族裔的偏見。
和我們看過的大多數(shù)科幻電影不同,人工智能給現(xiàn)代生活帶來的革命是潤物無聲的;擁有自主意識的機器人統(tǒng)治人類的場景還沒有出現(xiàn),但人工智已經滲透到我們的生活之中,穩(wěn)步地侵入了以前人類獨有的決策領域。正因如此,你甚至可能沒有注意到你的生活中已經有太多方面受到算法的影響。
清晨醒來,你伸手拿起手機,翻翻微博或者抖音,此時,一個由算法創(chuàng)建的內容提要正在為你服務。然后你檢查了你的電子郵件,收件箱中只有重要的信息,因為所有可以忽略的內容都已經自動丟棄到垃圾郵件或促銷文件夾中。你戴上耳機,收聽網易云音樂上的一個新的播放列表,這是算法根據(jù)你以前所感興趣的音樂為你挑選的。繼續(xù)著上午的例行工作,你進入汽車,并使用百度地圖,看看今天路上堵不堵。
在半個小時的時間里,你所消費的內容、收聽的音樂以及你上班的路程都依賴于算法的預測建模,而不是你自己的大腦。
機器學習來了,人工智能來了,我們正處在信息革命的進程之中,在感嘆生逢其時的同時,必須警惕隨之而來的影響。讓機器告訴你通勤的時間、你應該聽的音樂以及你可能感興趣的內容,這些都是相對無害的例子。但是當你瀏覽你的微博新聞時,某個地方的一個算法正在決定某人的醫(yī)療診斷、假釋資格或者職業(yè)前景。
從表面上看,機器學習算法看起來是一種很有前景的解決方案,可以消弭人類的偏見,這一人性的弱點可能對數(shù)百萬人的生活產生負面影響。人們的初衷是,人工智能中的算法能夠在公平和高效等方面超越人類既有的水平。世界各地的公司、政府、組織和個人都在使用機器決策,支持這樣做的理由有很多:更可靠、更容易、更便宜、更節(jié)省時間等。然而,仍有一些問題需要注意。
偏見的一般定義
圖片來源:Getty Images
偏見可以被定義為在被認為不公平的情況下比其他人更受青睞的某些事物、人或群體。它通常是對某些理性決定或規(guī)范的偏離,可以從統(tǒng)計學、法律、道德的或實用主義的角度來理解。我們在日常生活中以及在人類社會尺度上都可以看到偏見的影子。通常情況下,偏見之間會相互強化。
例如,在回家的路上,你可能會選擇走一條不那么“陰暗”的街區(qū),為何會這樣?也許是因為這個地區(qū)是那些社會經濟地位較低的人的家園。雖然不是說這類人群一定更有可能參與犯罪活動,但你的偏見,無論是顯性的還是隱性的,都促使你選擇一條不同的路線。從更宏觀的視角看,警方也可能由于偏見從而加強對這些地區(qū)的巡邏,而這反過來又可能導致比富裕的社區(qū)更高的逮捕率,從而產生一種高犯罪率的假象,而無關那里實際發(fā)生的犯罪率有多大。這種惡性循環(huán)似乎只會加劇我們最初的偏見。
算法與機器學習
讓我們首先區(qū)分經典算法和機器學習算法。經典算法通常被描述為輸入輸出處理器。傳統(tǒng)的編程依賴于植根于邏輯的函數(shù):如果x,那么y。經典算法是基于規(guī)則的,顯式的,生硬的。機器學習比這更復雜。機器學習算法不是通過預先設定的數(shù)據(jù)必須滿足的條件來做出決策,而是通過對決策領域中數(shù)百或數(shù)千個數(shù)據(jù)集的審計和統(tǒng)計分析來做出決定的。
例如,當招聘學習算法尋找理想的求職者時,培訓數(shù)據(jù)集可能會提供在企業(yè)中表現(xiàn)最好的候選人的200份簡歷,然后,算法在這些數(shù)據(jù)中尋找模式和相關性,這樣在評估一份新的簡歷的持有者能否成為理想的候選人的時候,算法的預測能力能夠更強。將決策交給機器學習算法對人類有許多好處,包括節(jié)省時間、金錢和精力。然而,當涉及到道德和責任的決定,界限就會變得模糊。因為我們無法確切地理解為什么一臺機器會做出這樣的決定(基于人工智能算法中的黑盒特性),所以當偏見發(fā)生時,我們并不總是能夠發(fā)現(xiàn)和回避。
機器學習的偏見
Mathwashing (盲目相信算法)
Mathwashing 是一個被創(chuàng)造出來的術語,用來代表社會對數(shù)學和算法的癡迷,以及一種心理傾向,即如果有數(shù)學或相關語義的參與(即使這些數(shù)值很武斷),就更容易相信某事物的真相。人類有一種傾向,認為數(shù)學的參與會自動使事物客觀化,因為數(shù)學對象似乎獨立于人類的思想。而數(shù)學這一存在本身就是基于人類的思想,數(shù)學這一體系及相關屬性,作為人類思維的產物而存在,這使得數(shù)學與其他衡量方法一樣容易受到人的主觀性的影響。
訓練數(shù)據(jù)“分類中的公平性”
機器學習算法是基于程序員選擇的數(shù)據(jù)集來訓練的。有了這些訓練數(shù)據(jù),他們就能識別和利用統(tǒng)計數(shù)據(jù)中的模式、關聯(lián)和相關性。例如,通過數(shù)千張不同貓和狗的圖片,可以訓練出區(qū)分貓和狗的算法。這種分類任務相對簡單;將算法應用于基于人類的法庭判決比這錯綜復雜得多。例如,就刑事司法系統(tǒng)中的人工智能而言,協(xié)助法官作出是否給予罪犯假釋的決定,工程師可以將過去人類針對數(shù)千例案件所作出的判決輸入系統(tǒng),但人工智能僅能就此了解到判決的結論。機器沒有能力感知到人類在做出這些判決時,是受何其多的變量的影響,而理性并不總是占據(jù)決策的主導地位。計算機科學家稱之為“選擇性標簽”。人類的偏見是在多年的社會融合、文化積累、媒體影響中學到的。算法中學習偏見的滲透過程與此類似:就像人類在誕生之初并無偏見,算法本身也是不存在偏見的,但是,如果給定了一個有缺陷的數(shù)據(jù)集,偏見將不可避免。
社會反思
人類教會了算法根據(jù)輸入信息和從信息中提取的模式來進行預測。鑒于人類存在著各種各樣的偏見,一個表征環(huán)境的數(shù)據(jù)集也同樣會表征這些偏見。從這個意義上說,算法就像鏡子:其學習模式反映了我們社會中存在的偏見,無論是顯性的還是隱性的。
微軟在2016年設計的人工智能聊天機器人,Tay
以Tay為例,它是微軟研發(fā)的聊天機器人。Tay的設計初衷是為了模擬一個十幾歲的女孩與Twitter用戶的互動內容,然而,在不到24小時的時間里,網友就見證(其實是推動,譯者注)了Tay的轉變,從表達“人類是超酷的”這樣的天真無邪的小女生到叫囂“希特勒是對的,我恨猶太人”這樣的狂熱分子,僅僅是憑借互聯(lián)網上的推特互動。微軟刪除了這些推文,并解釋說Tay在最初的測試階段采用的數(shù)據(jù)集主要是經過過濾的、非攻擊性的推文,因而并沒有出現(xiàn)任何問題。顯然,當Tay上線時,過濾過程不復存在。從好的方面講,這似乎表明了一種消除偏見的可能方法,即隨著算法的使用和與現(xiàn)實世界的接觸,應該對輸入的數(shù)據(jù)進行監(jiān)測和過濾。
12下一頁>(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )