雖然雖然越老越多的企業(yè)組織在使用AI技術(shù),但許多企業(yè)對(duì)它的工作方式尚無清晰的了解。本文中,我們探討了AI缺乏透明性的利弊。
當(dāng)基于規(guī)則的軟件編程不再能夠解決計(jì)算世界想要解決的問題時(shí),現(xiàn)代AI誕生了。我們不可能對(duì)程序必須測(cè)量的所有條件進(jìn)行編碼,因此計(jì)算專家設(shè)計(jì)了模仿人類思維方式的機(jī)器,從而使AI能夠通過觀察數(shù)據(jù)自行學(xué)習(xí)。這種稱為神經(jīng)網(wǎng)絡(luò)的方法催生了AI技術(shù),例如人臉識(shí)別程序、癌癥檢測(cè)算法和自動(dòng)駕駛汽車。
但是神經(jīng)網(wǎng)絡(luò)帶有一個(gè)折衷之處:我們無法理解系統(tǒng)的工作方式,AI模型缺乏透明度。這種現(xiàn)象被稱為黑匣子AI,事實(shí)證明這是個(gè)問題,而且可能是嚴(yán)重的問題。
黑盒AI的權(quán)衡
AI通常以準(zhǔn)確性百分比來衡量,即系統(tǒng)在多大程度上能夠給出正確答案。根據(jù)手頭的任務(wù),所需的最低精度可能會(huì)有所不同,但是即使是99%的精度也不能成為AI值的唯一度量。我們還必須考慮到AI的主要缺點(diǎn),尤其是在將AI應(yīng)用于商業(yè)中時(shí):具有近乎完美準(zhǔn)確性的AI模型也可能會(huì)出現(xiàn)問題。
隨著模型準(zhǔn)確性的提高,人工智能解釋其得出某個(gè)答案的原因的能力下降,這使企業(yè)必須面對(duì)的一個(gè)問題是:缺乏模型的AI透明度,因此,我們?nèi)祟悷o法信任其結(jié)果。因?yàn)?我們可能完全不知道到最終算法底會(huì)進(jìn)化成什么樣,是否會(huì)造成嚴(yán)重的后果,一切皆有可能。
黑盒問題在AI技術(shù)的早期階段可以接受,但是當(dāng)發(fā)現(xiàn)算法偏差時(shí)就失去了它的優(yōu)點(diǎn)。例如,經(jīng)過開發(fā)的AI可以根據(jù)種族對(duì)喪失工作能力的人進(jìn)行分類,而用于銀行業(yè)務(wù)AI根據(jù)性別篩選不合格貸款申請(qǐng)者。 AI接受訓(xùn)練的數(shù)據(jù)并不平衡,無法包含各種人的足夠數(shù)據(jù),人類決策中存在的歷史偏見也傳遞到了AI算法模型中。
AI還表明,近乎完美的模型仍可能犯下令人震驚的錯(cuò)誤。精度為99%的AI模型可能會(huì)為剩余的1%產(chǎn)生誤差,例如將停車標(biāo)志分類為限速標(biāo)志。猶如,千萬人級(jí)別人口的大城市,1%的數(shù)量也不容小覷。
盡管這是錯(cuò)誤分類或數(shù)據(jù)量不足的一些最極端情況,但它們?nèi)匀煌伙@了AI算法存在缺陷的可能性。人工智能遵循一種模式來得出答案,其神奇之處在于,它在超越人力的情況下表現(xiàn)出色。出于相同的原因,模式中的異常更改使模型容易受到攻擊,這也是我們需要AI透明度的原因,我們需要知道AI如何得出結(jié)論。
特別是,當(dāng)使用AI進(jìn)行關(guān)鍵決策時(shí),必須了解算法的推理過程與邏輯關(guān)系。旨在檢測(cè)癌癥的AI模型(即使錯(cuò)誤率僅為1%)也可能威脅生命。在這種情況下,人工智能和人類需要一起協(xié)同工作,并且當(dāng)人工智能模型可以解釋其如何達(dá)成某個(gè)決定時(shí),任務(wù)將變得更加容易。 AI的透明度使其成為團(tuán)隊(duì)合作者。
從法律的角度來看,有時(shí)透明是必要的步驟。
數(shù)據(jù)分析行業(yè)思想領(lǐng)導(dǎo)者Piyanka Jain說:“一些受監(jiān)管的行業(yè),例如銀行,都將模型的可解釋性作為在模型投入生產(chǎn)之前獲得合規(guī)和法律批準(zhǔn)的必要步驟。”
其他案例涉及GDPR或《加利福尼亞消費(fèi)者隱私法》,其中AI處理私人信息。AI軟件公司 Stradigi AI首席科學(xué)官兼聯(lián)合創(chuàng)始人Carolina Bessega說:“ GDPR的一個(gè)方面是,當(dāng)使用個(gè)人私人數(shù)據(jù)的算法做出決定時(shí),人類有權(quán)提出該決定背后的原因。”
看來AI透明性有很多好處,但是為什么所有的算法都不透明?
人工智能透明度不足
就像可以解釋如何實(shí)現(xiàn)某個(gè)決策的算法一樣,它也可以按比例變得更容易被黑客入侵。
通過了解AI的推理,黑客將可以更輕松地欺騙算法。 “在欺詐檢測(cè)中不鼓勵(lì)A(yù)I透明,” Jain解釋說。 “我們希望更少的人知道我們?nèi)绾巫サ狡墼p行為-網(wǎng)絡(luò)安全方面也是如此??偟膩碚f,當(dāng)我們?cè)噲D使用AI來抓捕壞人時(shí),我們希望更少的人知道潛在的邏輯,而AI很適合那?!?/p>
AI透明度的另一個(gè)問題是專有算法的保護(hù),因?yàn)檠芯咳藛T已證明,僅通過查看其解釋即可盜竊整個(gè)算法。
最后,透明算法更難設(shè)計(jì),至少暫時(shí)而言,它們只能應(yīng)用于更簡(jiǎn)單的模型。如果必須要具有透明度,那么它可能會(huì)迫使企業(yè)和組織使用不太復(fù)雜的算法。
如何達(dá)到平衡
與其他任何計(jì)算機(jī)程序一樣,人工智能需要優(yōu)化。為此,我們要查看特定問題的特定需求,然后調(diào)整通用模型以最適合這些需求。
實(shí)施AI時(shí),組織必須注意以下四個(gè)因素:
法律需求:如果工作需要從法律和法規(guī)的角度進(jìn)行解釋,那么除了提供透明度之外別無選擇。為此,組織可能必須訴諸更簡(jiǎn)單但可解釋的算法。
嚴(yán)重程度:如果要在生命攸關(guān)的任務(wù)中使用AI,則必須做到透明。這樣的任務(wù)很可能不僅僅依賴于AI,因此擁有推理機(jī)制可以改善與操作員的團(tuán)隊(duì)合作。如果AI影響某人的生活,例如用于工作應(yīng)用程序的算法,則同樣適用。
另一方面,如果AI的任務(wù)不是很關(guān)鍵,那么不透明的模型就足夠了??紤]一種算法,該算法建議下一個(gè)潛在客戶接觸具有數(shù)千個(gè)潛在客戶的數(shù)據(jù)庫,交叉檢查AI的決定根本不值得。
訪問權(quán)限:根據(jù)誰可以訪問AI模型,組織可能希望保護(hù)算法免受不必要的影響。如果可解釋性可以幫助專家得出更好的結(jié)論,那么即使在網(wǎng)絡(luò)安全領(lǐng)域,它也可以是很好的。但是,如果局外人可以訪問同一資源并了解該算法的工作原理,則最好使用不透明的模型。
數(shù)據(jù)集:無論何種情況,組織都必須始終努力擁有最好來自盡可能多的來源的多樣化且平衡的數(shù)據(jù)集。最終,我們將盡可能多地依賴于AI,并且AI僅像訓(xùn)練過的數(shù)據(jù)一樣智能。通過清理訓(xùn)練數(shù)據(jù),消除噪聲并平衡輸入,我們可以幫助減少偏差并提高模型的準(zhǔn)確性。(編譯/蒙光偉)
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )