精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    雖然AI預(yù)測(cè)犯罪很有用,但有時(shí)候偏見(jiàn)也不小

    一部分人認(rèn)為人工智能可以消除人類(lèi)偏見(jiàn)。在商務(wù)、醫(yī)藥、學(xué)術(shù)、打擊犯罪等領(lǐng)域,即使是簡(jiǎn)單的統(tǒng)計(jì)工具也遠(yuǎn)超人類(lèi)。還有一部分人反對(duì)AI將偏見(jiàn)系統(tǒng)化,因?yàn)榧词蛊?jiàn)未被編入程序,AI也自帶偏見(jiàn)。

    雖然AI預(yù)測(cè)犯罪很有用,但有時(shí)候偏見(jiàn)也不小

    2016年,ProPublica(一個(gè)獨(dú)立的非盈利新聞編輯部,為公眾利益進(jìn)行調(diào)查報(bào)道)發(fā)布了一份廣泛引用的報(bào)告(Machine Bias),該報(bào)告認(rèn)為,預(yù)測(cè)犯罪概率的常用算法(COMPAS)帶有種族歧視。一份新的研究報(bào)告(The accuracy, fairness, and limits of predicting recidivism)顯示,至少ProPublica提到的案例算法,雙方不相上下,算法并不比人類(lèi)精確公正。該報(bào)告還顯示:某些情況下,人類(lèi)對(duì)高級(jí)AI的需求被過(guò)度放大。

    自2000年起,名為COMPAS的專(zhuān)有算法開(kāi)始用于預(yù)測(cè)再次犯罪,即猜測(cè)某名罪犯是否會(huì)因再次犯罪而被逮捕。ProPublica的記者觀察了來(lái)自佛羅里達(dá)州的罪犯樣本,發(fā)現(xiàn)那些并未再犯的人群當(dāng)中,被COMPAS錯(cuò)誤標(biāo)記為高風(fēng)險(xiǎn)再犯的黑人人數(shù)幾乎是白人的兩倍。而那些再犯人群中,被錯(cuò)誤標(biāo)記為低風(fēng)險(xiǎn)再犯的白人人數(shù)卻是黑人的兩倍,這激怒了公眾。但此后,有報(bào)道又稱(chēng),算法比人們想象中的公正。風(fēng)險(xiǎn)評(píng)分相同的黑人和白人,再犯的幾率也相同,因此并不存在種族差異。算法是否公平,取決于衡量標(biāo)準(zhǔn),任何算法都不可能滿(mǎn)足所有標(biāo)準(zhǔn)。

    研究人員將預(yù)測(cè)再犯(罪)概率的準(zhǔn)確性作為主要衡量標(biāo)準(zhǔn)。受試網(wǎng)絡(luò)用戶(hù)閱讀的罪犯信息涉及七個(gè)方面,包括年齡、性別和犯罪記錄。研究人員使用COMPAS軟件預(yù)測(cè)。

    雖然AI預(yù)測(cè)犯罪很有用,但有時(shí)候偏見(jiàn)也不小

    COMPAS內(nèi)部的算法未知,但能夠讀取每個(gè)與人類(lèi)預(yù)測(cè)的精準(zhǔn)度和公正度基本相似,還有兩大驚人發(fā)現(xiàn)。其一,已知罪犯種族(第一組受試者和COMPAS的使用數(shù)據(jù)均不涉及種族信息),第二組受試者預(yù)測(cè)再犯概率時(shí)表現(xiàn)的偏見(jiàn)度與不知情時(shí)基本一致。

    其二,要與COMPAS媲美,無(wú)需137條數(shù)據(jù)(甚至7條都用不上),也不用聰明的頭腦或算法。某次試驗(yàn)中,研究人員使用了一個(gè)極其簡(jiǎn)單的機(jī)器學(xué)習(xí)算法(邏輯回歸),僅需罪犯的兩條數(shù)據(jù)(年齡及此前犯罪的總次數(shù)),預(yù)測(cè)精準(zhǔn)度就可高約65%。研究人員還嘗試了一個(gè)需7條數(shù)據(jù)完成預(yù)測(cè)的強(qiáng)大算法(非線性支持向量機(jī)),但精準(zhǔn)度并未提高。該項(xiàng)發(fā)現(xiàn)證實(shí)了一點(diǎn)(許多人工智能研究員也曾提及):“深度學(xué)習(xí)”這一時(shí)下熱門(mén)技術(shù)并非萬(wàn)金油。有些時(shí)候,僅需最簡(jiǎn)單的算法和極少量數(shù)據(jù)即可解決問(wèn)題。

    此外,研究人員還想強(qiáng)調(diào),預(yù)測(cè)社會(huì)問(wèn)題并非總是有跡可循。這些算法預(yù)測(cè)的不是再犯的概率,而是被再次拘捕的概率。然而,即便同一種罪行,黑人往往比白人更容易入獄。因此,算法(或人類(lèi))如果從包含人類(lèi)種族偏見(jiàn)的數(shù)據(jù)中學(xué)習(xí)預(yù)測(cè)模式,很容易過(guò)度預(yù)測(cè)黑人的再犯率,從而增加其入獄率,陷入不公平循環(huán)。

    達(dá)特茅斯大學(xué)計(jì)算機(jī)科學(xué)家Hany Farid 曾與學(xué)生Julia Dressel(現(xiàn)已畢業(yè))開(kāi)展了一項(xiàng)研究,希望這一發(fā)現(xiàn)能讓法院重新審視算法的地位,比如法官在得知網(wǎng)絡(luò)投票可信度不亞于復(fù)雜的系統(tǒng)預(yù)測(cè)結(jié)果時(shí),能夠?qū)ζ湓俅卧u(píng)估(補(bǔ)充一句,法官或許會(huì)更信任前者)。Farid稱(chēng):“我們希望算法的工作原理更加透明?!?/p>

    不少案例證明人工智能有時(shí)要比人類(lèi)更精準(zhǔn)公正。然而,反之亦然,人工智能和人類(lèi)有時(shí)也不相上下。我們需要提倡此類(lèi)研究,以驗(yàn)證AI能做什么,不能做什么。

    (免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
    任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

    贊助商
    2018-01-26
    雖然AI預(yù)測(cè)犯罪很有用,但有時(shí)候偏見(jiàn)也不小
    一部分人認(rèn)為人工智能可以消除人類(lèi)偏見(jiàn)。在商務(wù)、醫(yī)藥、學(xué)術(shù)、打擊犯罪等領(lǐng)域,即使是簡(jiǎn)單的統(tǒng)計(jì)工具也遠(yuǎn)超人類(lèi)。還有一部分人反對(duì)AI將偏見(jiàn)系統(tǒng)化,因?yàn)榧词蛊?jiàn)未被編入程序,AI也自帶偏見(jiàn)。

    長(zhǎng)按掃碼 閱讀全文