本周,由歐盟委員會(huì)任命的、擁有52名技術(shù)人員的專家組正式發(fā)布了一份普適性的《人工智能倫理指南(Ethics Guidelines for Artificial Intelligence)》,旨在促進(jìn)開發(fā)“值得信賴的AI”成果(順帶一提,原文作者亦是這52位專家之一)。這是一份極具雄心的文件,也是人類在AI倫理探索方面首次率先在大規(guī)模試點(diǎn)活動(dòng)當(dāng)中進(jìn)行實(shí)際測試,而不再簡單羅列理論性的道德原則。此次試點(diǎn)得到了歐盟委員會(huì)的全力支持。該委員會(huì)不僅批準(zhǔn)了此項(xiàng)指南,同時(shí)亦呼吁各私營部門積極應(yīng)用這份指南,并希望將其作為新的全球性標(biāo)準(zhǔn)。
在探索AI道德規(guī)范的道路上,歐洲并不是在孤單前行。過去幾年當(dāng)中,加拿大與日本等國已經(jīng)發(fā)布過包含道德倫理原則的AI戰(zhàn)略,經(jīng)合組織也正立足這一領(lǐng)域廣泛收集建議。諸如AI合作伙伴關(guān)系等私人倡議更是制定出不少道德準(zhǔn)則——這一伙伴關(guān)系目前已經(jīng)吸納到超過80家企業(yè)以及民間社會(huì)組織。另外,AI開發(fā)者們也熱情支持電氣與電子工程師協(xié)會(huì)(簡稱IEEE)在倫理框架層面的努力以及阿西洛馬人工智能原則。目前,大多數(shù)高科技巨頭都已經(jīng)制定出自己的原則,民間社會(huì)也在快速消化各類指導(dǎo)性文件,包括以人權(quán)為重點(diǎn)的多倫多宣言。由牛津大學(xué)Luciano Floridi教授領(lǐng)導(dǎo)的一項(xiàng)研究發(fā)現(xiàn),盡管所使用的術(shù)語各不相同,但大部分現(xiàn)有聲明之間都存在著一大共通性特征:它們并非強(qiáng)制執(zhí)行,即沒有硬性約束力。
事實(shí)上,歐洲發(fā)布的這份指出也無法直接實(shí)施,但卻在諸多方面較以往的嘗試更進(jìn)了一步。歐盟方面主要關(guān)注四大倫理原則,即尊重人的自主權(quán)、防止傷害、公平性以及可解釋性。但除此之外,指南提到可信賴的AI還意味著應(yīng)遵守歐盟的法律與基本權(quán)利(包括隱私權(quán)),以及高水平的社會(huì)技術(shù)穩(wěn)健性。任何希望設(shè)計(jì)、訓(xùn)練以及營銷可信賴AI系統(tǒng)的組織或個(gè)人,都必須認(rèn)真考慮相關(guān)系統(tǒng)可能引發(fā)的風(fēng)險(xiǎn),并對為減輕這些風(fēng)險(xiǎn)而采取的具體措施負(fù)責(zé)。此外,這份指南還提供了一套詳盡的框架,用于對此類措施做出評估。
對于渴望出臺(tái)一項(xiàng)強(qiáng)有力的約束性法令的從來者而言,這一次的指南恐怕仍然無法讓他們滿意。這里沒有提到弗蘭肯斯坦悖論、沒有技術(shù)發(fā)展奇點(diǎn)、沒有振聾發(fā)聵的條款——例如“AI應(yīng)該始終具備可解釋性”、“AI永遠(yuǎn)不應(yīng)干擾人類”、“整個(gè)循環(huán)當(dāng)中應(yīng)始終有人類參與”或者“AI永遠(yuǎn)不可抱有歧視之心”等。這些陳述雖然具有直觀意義上的吸引力,但卻與當(dāng)前AI部署現(xiàn)實(shí)相去甚遠(yuǎn),而且顯然并不適合被實(shí)際轉(zhuǎn)化為政策性框架。
換言之,用戶并不需要詳細(xì)解釋或理解AI技術(shù)支持之下的冰箱到底在如何工作,也不需要明白無人駕駛汽車到底如何做出正常決策。他們需要相信的,只是AI解決方案可以被引入市場流程,并會(huì)在出現(xiàn)問題時(shí)由人類專家介入干預(yù)。但在另一方面,用戶應(yīng)該有權(quán)了解他們?yōu)槭裁礋o法訪問政府檔案,或者為什么AI方案會(huì)將一部分人判定為補(bǔ)貼領(lǐng)取者或者腎臟移植受讓者。同樣的,在某些情況下,硬性將人類引入循環(huán)可能毫無意義(例如強(qiáng)制要求用戶坐在無人駕駛汽車的方向盤前面);當(dāng)然,在大多數(shù)場景下,確保人類“在循環(huán)中”或者“由人類保留指揮權(quán)”也是非常必要的。此外,雖然歧視往往無法徹底消除——畢竟我們的人類社會(huì)本身就客觀存在著偏見問題,但最重要的是應(yīng)禁止過度、不合理以及有違法律的歧視,并對受到影響的個(gè)人快速給予補(bǔ)償。更重要的是,這份指南中還包括幾個(gè)“需要高度關(guān)注的領(lǐng)域”實(shí)例,這些領(lǐng)域往往很難滿足值得信賴AI這一原則的相關(guān)要求,具體包括識(shí)別與追蹤使用AI方案的個(gè)人、部署隱蔽的AI系統(tǒng)、以有違人權(quán)的方式開發(fā)基于AI技術(shù)的公民評分系統(tǒng),以及利用AI技術(shù)開發(fā)致命性自主武器(簡稱LAW)。
值得信賴AI這一概念目前仍只是高級(jí)專家組表述中的所謂“理想目標(biāo)”。歐盟機(jī)構(gòu)將在未來幾個(gè)月之內(nèi)最終決定是否將其作為具有約束力的政策性框架,并判斷其具體適用于哪些用例。這可能需要將其轉(zhuǎn)化為強(qiáng)制法(例如通過修改出臺(tái)侵權(quán)規(guī)定,針對特定行業(yè)立法以實(shí)現(xiàn)某些情況下的可信賴AI約束力,以及臨時(shí)性競爭規(guī)則等等),同時(shí)配合其它非強(qiáng)制性工具。關(guān)于其它措施,歐盟可以要求全部公共部門采購只能選擇可信賴的AI產(chǎn)品;或者要求醫(yī)療保健領(lǐng)域中的AI應(yīng)用必須值得信賴等。此外,可能還需要出臺(tái)某種形式的認(rèn)證機(jī)制以確保新系統(tǒng)得到正確實(shí)施,并以正確方式向用戶呈現(xiàn)信息。
另一個(gè)問題是,該制度是否有助于歐洲制定出全球性AI標(biāo)準(zhǔn),從而重新提振自身競爭力。IBM公司已經(jīng)宣布將在全球范圍內(nèi)應(yīng)用這套框架,但考慮到:
1)業(yè)界普遍認(rèn)為美國對于最終用戶的隱私權(quán)保護(hù)不力;
2)美國平臺(tái)常被指責(zé)過度干擾用戶的自主權(quán)與決策權(quán),因此全面應(yīng)用可信賴AI標(biāo)準(zhǔn)可能會(huì)在不久的將來把那些不合規(guī)(或者說非歐洲)企業(yè)擋在歐洲大門之外。
另外,起草這份“準(zhǔn)則”的專家組并沒有討論任何關(guān)于工業(yè)與貿(mào)易的政策性方案。不過歐盟委員會(huì)在最近的一份官方文件中提出了“歐洲制造”的倫理、安全與前沿AI發(fā)展觀,這也暗示也許未來相關(guān)法律將得到全面實(shí)施。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )