精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    人工智能發(fā)展面臨的法律挑戰(zhàn)

    文|金融時報

    4月18日訊,觀察一個概念是不是在公眾視野中“紅了”,有一個判斷標(biāo)準(zhǔn),就是看看在各大機(jī)場的書店里有多少本關(guān)于這個主題的暢銷書。以這個標(biāo)準(zhǔn)來看,人工智能現(xiàn)在無疑“紅的發(fā)紫”,也還會繼續(xù)紅下去。

    然而,科技領(lǐng)域的每一個新概念,從產(chǎn)生到具體在各行業(yè)中落地,都需要面對很多挑戰(zhàn),既有技術(shù)和商業(yè)層面的,也有法律和公共政策層面的。

    在過去的一年之間,人工智能的發(fā)展已經(jīng)引起了很多國家、國際組織的重視,聯(lián)合國、美國、歐洲議會、英國、法國、電氣和電子工程師協(xié)會(IEEE)先后發(fā)布多份關(guān)于人工智能的報告,討論人工智能的影響和需要考慮的風(fēng)險。這其中也包含了對于法律問題的討論。

    筆者作為多家科技公司的顧問,也在業(yè)務(wù)實(shí)踐中遇到了很多和人工智能技術(shù)應(yīng)用相關(guān)的法律問題,本文會結(jié)合實(shí)例討論人工智能發(fā)展在法律問題上可能會遇到哪些挑戰(zhàn)。

    盡管人工智能從法律上很難準(zhǔn)確定義,但從技術(shù)上來說,目前人工智能基本都會涉及機(jī)器學(xué)習(xí)技術(shù) (Machine Learning),這意味著需要收集、分析和使用大量數(shù)據(jù),其中很多信息由于具有身份的識別性(包括結(jié)合其他信息識別身份),屬于個人信息。按照個人信息保護(hù)方面的法律規(guī)定,這些行為應(yīng)當(dāng)取得用戶明確、充分且完備的授權(quán),并應(yīng)當(dāng)明確告知用戶收集信息的目的、方式手段、內(nèi)容、留存時限還有使用的范圍等。

    早在2011年,F(xiàn)acebook就曾因其人臉識別和標(biāo)記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式被訴,隨后又因采集面部特征前未能明確提醒用戶并征得用戶同意而遭到愛爾蘭和德國有關(guān)部門的調(diào)查。盡管Facebook辯稱默認(rèn)開啟該功能是因?yàn)橛脩敉ǔ2粫芙^進(jìn)行人臉識別,并且用戶有權(quán)隨時取消這一功能,但德國漢堡市數(shù)據(jù)保護(hù)與信息安全局堅持Facebook的面部識別技術(shù)違反了歐洲和德國的數(shù)據(jù)保護(hù)法,F(xiàn)acebook應(yīng)刪除相關(guān)數(shù)據(jù)。最終,F(xiàn)acebook被迫在歐洲地區(qū)關(guān)閉了人臉識別功能,并刪除了針對歐洲用戶建立的人臉數(shù)據(jù)庫。

    當(dāng)然也有對企業(yè)有利的案例。著名籃球游戲NBA2K提供了使用用戶面部識別信息建立角色模型的功能,部分用戶以游戲制造者未征得其同意提起集體訴訟,法官認(rèn)為被告收集信息最多是抽象的違反了BIPA,而沒有給原告造成具體而特定的損害,因此原告主體身份不適格,駁回了原告的訴請。

    除了需要按告知的方式和范圍使用用戶數(shù)據(jù),人工智能應(yīng)用的開發(fā)者還可能面臨需要配合政府部門提供數(shù)據(jù)的情況。2016年阿肯色州發(fā)生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數(shù)據(jù),該請求遭到了亞馬遜公司的拒絕,理由是警方?jīng)]有出具有效的法律文件。但這種例子以后還會層出不窮。公權(quán)和私權(quán)的沖突,也許會因?yàn)槿斯ぶ悄芗夹g(shù)的引入,出現(xiàn)新的形式。

    人工智能開發(fā)者在收集、使用數(shù)據(jù)的過程中,還要遵守安全保障原則,采取適當(dāng)?shù)摹⑴c個人信息遭受損害的可能性和嚴(yán)重性相適應(yīng)的管理措施和技術(shù)手段,保護(hù)個人信息安全,防止未經(jīng)授權(quán)的檢索、披露及丟失、泄露、損毀和篡改個人信息。

    數(shù)據(jù)歧視和算法歧視

    人工智能在應(yīng)用中,往往需要利用數(shù)據(jù)訓(xùn)練算法。如果輸入的數(shù)據(jù)代表性性不足或存在偏差,訓(xùn)練出的結(jié)果將可能將偏差放大并呈現(xiàn)出某種歧視特征。根據(jù)國外報道,卡內(nèi)基•梅隆大學(xué)的研究顯示,由谷歌(Google)創(chuàng)建的廣告定位算法可能存在對互聯(lián)網(wǎng)用戶的性別歧視。在搜索20萬美元薪水的行政職位中,假冒男性用戶組收到1852個廣告,而假冒女性用戶組僅收到318個廣告。而在2016年3月23日,微軟公司的人工智能聊天機(jī)器人Tay上線不到24小時,就在一些網(wǎng)友的惡意引導(dǎo)和訓(xùn)練下,發(fā)表了各種富有攻擊性和歧視性的言論。除此以外,因?yàn)閿?shù)據(jù)存在偏差,導(dǎo)致結(jié)果涉嫌歧視甚至攻擊性的例子,已經(jīng)大量出現(xiàn)。

    這意味著開發(fā)者在人工智能的訓(xùn)練和設(shè)計過程中需要秉承廣泛的包容性,充分考慮女性、兒童、殘疾人、少數(shù)族群等易被忽視群體的利益,并對道德和法律的極端情況設(shè)置特別的判斷規(guī)則。

    由于人工智能系統(tǒng)并非表面那么看起來“技術(shù)中立”,在毫不知情的情況下,特定人群就可能就成了系統(tǒng)“偏見”和“歧視”的受害者。作為開發(fā)者,需要審慎面對這樣的風(fēng)險。除了在采集數(shù)據(jù)和設(shè)計算法的時候需要注意數(shù)據(jù)的全面性和準(zhǔn)確性以及算法的不斷調(diào)整更新外,在應(yīng)用機(jī)器的預(yù)測結(jié)果是也應(yīng)該更為謹(jǐn)慎,在重要領(lǐng)域不能將人工智能的運(yùn)算結(jié)果當(dāng)然作為最終且唯一的決策依據(jù),關(guān)鍵的人為審查依然是必要的。例如在關(guān)于人工智能醫(yī)療輔助診斷的規(guī)定中,就明確了人工智能輔助診斷技術(shù)不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質(zhì)的臨床醫(yī)師確定。

    如果人工智能的歧視行為給用戶造成了實(shí)際或精神損害,相關(guān)的法律責(zé)任應(yīng)當(dāng)首先由人工智能服務(wù)的最終使用者承擔(dān),人工智能開發(fā)者有過錯的,最終使用者承擔(dān)責(zé)任后可以向開發(fā)者追償。在判斷開發(fā)者過錯程度時,可能需要區(qū)分不同算法:如果技術(shù)開發(fā)者主動設(shè)立了算法中的規(guī)則,那么對最終出現(xiàn)的歧視風(fēng)險預(yù)見和控制程度也更高,如果最終因系統(tǒng)的“歧視”或者“偏見”損害了第三方的合法權(quán)益,難辭其咎。但如果采取的深度學(xué)習(xí)等算法,由系統(tǒng)自身探索并形成規(guī)則,所以開發(fā)者對歧視風(fēng)險的控制程度是比較低的,主觀惡意和過錯都較小,可能具有一定的免責(zé)空間。

    事故責(zé)任和產(chǎn)品責(zé)任

    和其他技術(shù)一樣,人工智能產(chǎn)品也有事故和產(chǎn)品責(zé)任的問題,但要分清是人為操作不當(dāng)還是人工智能的缺陷并沒有那么容易,舉證上尤其困難。汽車的自動駕駛功能在國內(nèi)外都曾因發(fā)生交通事故而被質(zhì)疑其安全性。然而,并非只要安裝了人工智能,用戶使用產(chǎn)品受到的損害就都屬于人工智能的責(zé)任。筆者收集和接觸了不少和人工智能產(chǎn)品有關(guān)的糾紛,但其中有相當(dāng)?shù)谋壤?,都不能證明開啟了人工智能的相關(guān)功能。

    在確定事故屬于人工智能責(zé)任前需要明確排查以下問題:是否有人為操作等其他原因造成損害后果的發(fā)生?人工智能的具體功能是什么?損害發(fā)生時相關(guān)功能是否已經(jīng)啟用?相關(guān)功能是否發(fā)揮了預(yù)期作用?相關(guān)功能與損害后果之間是否存在因果關(guān)系?因果關(guān)系的相關(guān)程度如何?產(chǎn)品功能描述和介紹中是否存在可能造成用戶降低注意水平的歧義或誤解?

    根據(jù)《侵權(quán)責(zé)任法》的規(guī)定,因終端產(chǎn)品存在缺陷造成用戶損害的,終端產(chǎn)品生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。如果終端產(chǎn)品使用的人工智能存在缺陷,而終端產(chǎn)品使用的人工智能芯片和服務(wù)(人工智能產(chǎn)品)是由他人提供的,則終端產(chǎn)品生產(chǎn)者可以以銷售者的身份,要求人工智能產(chǎn)品和服務(wù)的開發(fā)者作為產(chǎn)品生產(chǎn)者承擔(dān)侵權(quán)責(zé)任。同時,雙方也可以自行約定侵權(quán)責(zé)任的劃分問題。

    在認(rèn)定產(chǎn)品缺陷責(zé)任時一個比較棘手的問題是,各生產(chǎn)者之間的責(zé)任認(rèn)定問題。因使用人工智能的終端產(chǎn)品可能涉及多類技術(shù)和部件,當(dāng)該產(chǎn)品最終發(fā)生意外時,往往難以精準(zhǔn)定位問題出現(xiàn)的具體環(huán)節(jié)和部位。因此,建議人工智能開發(fā)者通過黑匣子等技術(shù)手段加強(qiáng)對操作數(shù)據(jù)的記錄和保存,以便產(chǎn)生正義時履行舉證義務(wù)。

    值得注意的是,對于產(chǎn)品生產(chǎn)者的嚴(yán)格責(zé)任,規(guī)定有“當(dāng)前科學(xué)水平尚不能發(fā)現(xiàn)缺陷”的免責(zé)事由。但是這項(xiàng)免責(zé)事由在人工智能領(lǐng)域是否適用值得討論?盡管在深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)和學(xué)習(xí)過程存在不可預(yù)見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風(fēng)險源頭具有絕對的控制力,司法機(jī)關(guān)可能會推定開發(fā)者應(yīng)當(dāng)預(yù)見算法執(zhí)行中的可能風(fēng)險或要求開發(fā)者需要對風(fēng)險程度的增加承擔(dān)責(zé)任。在此情況下,如果生產(chǎn)者想要免責(zé),就要對當(dāng)前技術(shù)難以發(fā)現(xiàn)這項(xiàng)風(fēng)險進(jìn)行舉證,但這是比較困難的,特別是在人身損害領(lǐng)域,法院對免責(zé)事由的審查往往比財產(chǎn)損害要更加嚴(yán)格。

    人工智能與行業(yè)監(jiān)管

    人工智能技術(shù)或者產(chǎn)品的研發(fā)本身目前并未設(shè)置行政許可和準(zhǔn)入限制,但是一旦這些技術(shù)和產(chǎn)品將要應(yīng)用到具體的行業(yè)之中,那么就有可能會涉及各類行業(yè)的牌照取得的問題。

    例如在目前最備受熱議的“智能投顧”行業(yè),就出現(xiàn)了很多人打著智能投顧的幌子行非法薦股和無牌照代銷的現(xiàn)象。智能投顧,通俗地說就是“機(jī)器人理財”,最早出現(xiàn)在美國,是用數(shù)據(jù)算法優(yōu)化理財配置的產(chǎn)品。目前國內(nèi)的智能投顧平臺主要有投資咨詢和資產(chǎn)管理兩大方向的業(yè)務(wù)。因此,“智能投顧”也會涉及投資咨詢和資產(chǎn)管理兩個方面的牌照。如果平臺從事證券投資咨詢業(yè)務(wù),按規(guī)定,其必須取得經(jīng)中國證監(jiān)會頒發(fā)的證券投資咨詢從業(yè)資格。而且這樣的平臺只能向投資者提供咨詢建議,不能接觸投資者賬戶或者受托理財。如果智能投顧平臺涉及銷售金融產(chǎn)品,還需要根據(jù)產(chǎn)品類型取得相關(guān)許可。未取得相關(guān)許可的智能投顧平臺經(jīng)營者可能會因非法經(jīng)營罪陷入刑事法律風(fēng)險。在其他的人工智能應(yīng)用行業(yè),例如醫(yī)療設(shè)備、聯(lián)網(wǎng)的可穿戴設(shè)備等,牌照的監(jiān)管問題也不容忽視。

    未來行業(yè)監(jiān)管是否需要延伸至人工智能領(lǐng)域?對于金融、醫(yī)療、智能家居、自動駕駛等專業(yè)領(lǐng)域,監(jiān)管是否有必要介入人工智能的開發(fā),這取決于人工智能技術(shù)的發(fā)展程度,如果有一天人工智能進(jìn)化到了能夠代替人做決策的階段,那么在人工智能的開發(fā)環(huán)節(jié)便需要引入相關(guān)領(lǐng)域的具備資質(zhì)的專業(yè)人員。在此之前,對于僅僅在自動化操作和輔助判斷領(lǐng)域發(fā)揮作用的人工智能,不妨留給技術(shù)人員自由生長。

    技術(shù)創(chuàng)新與不正當(dāng)競爭

    人工智能的優(yōu)勢,就在于它能在一定程度上模擬用戶的思維過程,并輔助或代替用戶作出決定。不難預(yù)見,這一過程中可能存在的服務(wù)交叉和選擇偏好問題,將成為競爭法領(lǐng)域新的熱門話題。

    為了進(jìn)行輔助決策,人工智能可能需要利用其他設(shè)備或軟件運(yùn)行過程中的數(shù)據(jù),那么用戶和其他軟件的開發(fā)者,誰是這些數(shù)據(jù)的所有人,誰能夠作出有效的授權(quán)?如果堅持使用公共數(shù)據(jù)必須逐一取得其他設(shè)備生產(chǎn)者或軟件開發(fā)者的同意,無疑將極大的制約人工智能的應(yīng)用場景和發(fā)展速度。相反,如果認(rèn)為人工智能開發(fā)者在充分保證用戶知情權(quán)和選擇權(quán)、不損害產(chǎn)品或軟件原有功能和商業(yè)模式的前提下,可以獲取其他設(shè)備或軟件的公共數(shù)據(jù),那么必將有助于市場競爭、打破目前“軍閥割據(jù)”的混亂局面。

    語音助手已經(jīng)可以簡化用戶的操作,不遠(yuǎn)的未來,如果人工智能發(fā)展到可以預(yù)測用戶的需求的階段,在用戶的進(jìn)入特定場景前便已經(jīng)準(zhǔn)備好相應(yīng)的服務(wù),這種“衣來伸手飯來張口”的提前介入,糾結(jié)屬于合法的技術(shù)創(chuàng)新,還是構(gòu)成對競爭對手的惡意干擾甚至流量劫持,往往需要結(jié)合介入時機(jī)、介入方式和損害后果等因素綜合判斷。技術(shù)中立原則并非萬能的擋箭牌。

    總得來說,人工智能的最高理想是代替用戶決策,而決策隱含著對服務(wù)的篩選和分發(fā),這意味著人工智能將成為一種全新的流量入口。可以預(yù)見的是,開發(fā)者夾帶自身利益的沖動難以杜絕,但另一方面,也無需對此過度擔(dān)憂,長遠(yuǎn)來看,只要用戶依然享有用腳投票的權(quán)利,市場競爭始終是保證用戶體驗(yàn)的不二法門。

    未成年人保護(hù)和AI倫理

    一說到人工智能的用戶,很多人第一聯(lián)想到的總是成年人,而忽略了身邊的很多“小玩家”。人工智能作為一種“增值”技術(shù),早已滲透在我們的手機(jī)、iPad、電腦當(dāng)中,而小朋友們又是這些產(chǎn)品的“頭號粉絲”,其接觸到人工智能,實(shí)屬必然。但是就在這時候,人工智能貌似并不能識別出“小用戶們”的身份。最近,國外網(wǎng)站出現(xiàn)了一段視頻,在視頻中小孩向亞馬遜Alexa下達(dá)指令:“Alexa,請播放‘digger digger(兒童歌曲)’。”之后,亞馬遜個人助手通過算法進(jìn)行識別,竟然認(rèn)為小孩子想聽情色內(nèi)容并開始播放。當(dāng)小孩子的父母意識到發(fā)生了什么事情的時候,已經(jīng)為時已晚。無獨(dú)有偶,一名六歲的女孩在和Echo內(nèi)置的人工智能助手Alexa聊天時,訂下了價值170美元的玩具。雖然小孩的媽媽在知道此事后立刻取消了操作,但訂單早已經(jīng)被處理。和孩子身高幾乎相同的玩偶在第二天就被送到了家門口。因此,我們看到,鑒于人工智能技術(shù)尚不成熟,而且小孩子這項(xiàng)技術(shù)的認(rèn)知也未深入,他們在接觸到人工智能系統(tǒng)時很有可能發(fā)生各種問題。人工智能的研發(fā)者和制造者應(yīng)該預(yù)料到未成年人有接觸到其產(chǎn)品的可能性,并采取相應(yīng)的保護(hù)措施。

    同時,其他主體例如政府、學(xué)校和家長,對提高未成年人對人工智能的認(rèn)知都負(fù)有責(zé)任。例如,在美國白宮發(fā)布的報告《為未來人工智能做好準(zhǔn)備》中就提到,院校應(yīng)在安防、隱私和安全方面納入倫理學(xué)和相關(guān)主題,將其作為人工智能、機(jī)器學(xué)、計算機(jī)科學(xué)和數(shù)據(jù)科學(xué)整體課程的一部分。同時,在其另一份報告《人工智能、自動化與經(jīng)濟(jì)報告》中也提出了“為未來的工作教育和培訓(xùn)美國人”戰(zhàn)略,明確在數(shù)學(xué)、計算機(jī)科學(xué)等與人工智能密切相關(guān)的主題中提高學(xué)生們的認(rèn)知。

    在過去的六十年中,人工智能技術(shù)起起伏伏,這一波人工智能熱將在多大程度上影響人類社會還未可知。在考慮如何使用這項(xiàng)技術(shù)幫助人類決策的同時,我們也要清楚地認(rèn)識到,監(jiān)管部門和司法機(jī)關(guān)對透明性和舉證責(zé)任的要求,與機(jī)器學(xué)習(xí)結(jié)果的不確定性和算法保密要求之間,存在著一種結(jié)構(gòu)性的緊張關(guān)系。如何在建立一個既能鼓勵人工技術(shù)發(fā)展,又能合理分配風(fēng)險的監(jiān)管制度,是下一篇專欄要討論的問題。

    極客網(wǎng)企業(yè)會員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2017-04-18
    人工智能發(fā)展面臨的法律挑戰(zhàn)
    監(jiān)管部門和司法機(jī)關(guān)對透明性和舉證責(zé)任的要求,與機(jī)器學(xué)習(xí)結(jié)果的不確定性和算法保密要求之間,存在著一種結(jié)構(gòu)性的緊張關(guān)系。

    長按掃碼 閱讀全文