精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    看不透的AI防自殺背后,防的是利益損失

    原標題:看不透的AI防自殺背后,防的是利益損失

    文|楊蘇穎

    來源|智能相對論(ID:aixdlun)

    很忙的扎克伯格決定在全球范圍內(nèi)推廣AI防自殺系統(tǒng)以平息用戶對Facebook的不滿情緒,這是怎么回事?

    原來,之前Facebook上曾多次出現(xiàn)直播自殺的事件,但由于平臺方?jīng)]有及時排查到此類信息,一時給社會造成了很大的負面影響。而Facebook也理所當然地遭到了平臺用戶的責難。所以扎克這才趕緊推出了AI防自殺系統(tǒng)。不過,這已經(jīng)不是第一次Facebook因為信息管理不利而被diss了。今年《紐約時報》和《衛(wèi)報》的報道指出英國一家數(shù)據(jù)分析的政治咨詢公司利用Facebook的信息管理漏洞,竊取了5000千多萬Facebook用戶的個人資料,幫助現(xiàn)任美國總統(tǒng)特朗普在2016年的大選當中獲得有利輿論。

    Facebook近年來爭議不斷,這套AI防自殺系統(tǒng)是其挽回用戶信心的一個小動作,但是小動作里面也可能藏有大玄機,F(xiàn)acebook的新技術(shù)到底能不能安撫長期以來被其傷害的用戶之心呢?

    從圖文到視頻:AI識別自殺的技術(shù)之流

    AI可以識別自殺這一論斷看似很迷,但是在各種AI識別人類性格、性取向、精神疾病等技術(shù)層出不窮的前提下,我們可以嘗試對AI防自殺系統(tǒng)進行簡單剖析,嘗鼎一臠。

    文字識別:AI防自殺系統(tǒng)會對用戶的發(fā)帖內(nèi)容進行識別,針對含消極情緒的語句,

    例如,“我不想活了”,“我恨世界上所有人”,“我為什么還不死”這類代表負面情緒的語言AI會特別注意,并將發(fā)布此類言論的用戶進行標記。然后,AI會將相應的數(shù)據(jù)移交給公司專員進行篩選和處理,最后由人工來做出決策。Facebook這套AI防自殺系統(tǒng)沒有讓AI單兵作戰(zhàn),而是選擇人機協(xié)作的方式來篩選信息,為提高系統(tǒng)識別自殺的準確度做了一定的保障。目前,AI偵測與回報機制的速度比人工的手動回報快三成,已經(jīng)大大提高了Facebook信息篩選效率,并成功阻止了多起自殺事件。

    圖片識別:其實,要機器從一張圖片來分析出一個人是否有自殺傾向是一件相當困

    難的事情,因為圖片的表達有時候比較抽象,其中還會涉及到色彩學方面的問題,就算是人類也不一定能做到。不過AI仍然可以對此做出一些嘗試,我們可以拿另外一個AI圖片識別的領(lǐng)域來舉例,那就是AI鑒黃。由于深度學習的神經(jīng)網(wǎng)絡(luò)模型在各種圖像識別比賽中取得的突破性進展,目前AI鑒黃一般會采用CNN(卷積神經(jīng)網(wǎng)絡(luò))、GoogleNet、ResNet(殘差網(wǎng)絡(luò))三種深度網(wǎng)絡(luò)模型結(jié)構(gòu)。開發(fā)人員會需要從技術(shù)層面研發(fā)出一個“分類器”,從而讓AI能夠計算出該圖是否屬于黃圖的概率。這套AI鑒黃的原理在理論上來說對于所有的圖片識別基本通用,只不過相比鑒黃來說,AI要從圖片中識別出自殺傾向的困難點在于難以抓取此類圖片的共同點,所以在第一步建立“分類器”上,AI可能會遇到比較大的障礙。因此后續(xù)AI識別的準確率,相對文字識別來說,也會不太好保證。

    音視頻識別:當然,用戶在社交平臺上發(fā)布的內(nèi)容不僅僅是文字和圖片,還有很多

    的表達是以音頻或者視頻的形式。所以,AI防自殺系統(tǒng)在視頻直播當中也植入了AI程序。雖然Facebook方面并沒有透漏有關(guān)該AI視頻識別技術(shù)的相關(guān)細節(jié),但是我們?nèi)匀豢梢詮臋C器視覺領(lǐng)域的進展來窺一窺究竟。之前,一公司的計算精神病學和神經(jīng)成像研究小組團隊利用機器學習預測大腦精神疾病抑郁癥,通過對59名普通人的語言方式進行追蹤和分析從而預測他們潛在的患病風險,其精確度達到83%,由此我們可以看出機器具備一定能力從語音層面來分析人類情緒。另外,南加州大學曾推出一款AI心理治療師,能夠分析受訪士兵的面部表情變化,并將AI分析表情的結(jié)果作為診斷士兵是否存在PTSD(創(chuàng)傷后應激障礙)的依據(jù)之一。所以,AI防自殺系統(tǒng)要判斷視頻中的人是否有自殺的傾向,可能首先會從一、人物的面部表情;二、是否存在危險器械;三、是否有流血等畫面的特點來進行分析??偟膩碚f,AI防自殺系統(tǒng)的有關(guān)圖像識別技術(shù)基本上會與以上所提到的兩個機器學習技術(shù)類似。

    AI防自殺識別系統(tǒng)之殤,真的很痛

    雖然現(xiàn)在AI識別人類情緒的工程一直在持續(xù)推進,但是情緒識別對于機器來說仍然不是一件簡單的事情。

    首先,我們需要弄清楚AI分得清“演戲”和“真實”嗎?比如,在快手上存在著大量小劇場表演式的視頻類型,很多男生哭天搶地,女生狠心決絕甩耳光的視頻得到數(shù)百萬的點贊。人們把這些視頻當作娛樂消遣,而機器會怎么看待這樣視頻?嘴角下?lián)P、淚眼婆娑、聲嘶力竭,這一場場一幕幕會被機器的“眼睛”迅速捕捉,并將其標簽為極端消極負面的情緒傳播。吃瓜群眾津津樂道地一場戲精飆戲在機器眼里成了有自殺傾向的人群情緒宣泄。這可能真的會讓人有些哭笑不得。模仿是人類的天性之一,長期熟悉模仿式表演的用戶能夠很快分辨出模仿和真實情緒的流露之間的細微差別,但是就是這一點點細微的差別卻是機器情緒識別最難突破的瓶頸之處。

    其次,當機器將識別出的一些負面關(guān)鍵詞作為標記自殺人群的標準時,那么我們必須應該讓機器知道那些說要“死”的人是不是真的想去死。Facebook這一AI防自殺系統(tǒng)應用于國外會有什么烏龍,我們可能還沒那么清楚。但是設(shè)想一下,如果把這一系統(tǒng)挪用到中國來,人工篩選的信息量反可能被大大增加。舉個例子,在中國的語言系統(tǒng)里有一個很特殊的點,就是很喜歡把“死”作為程度詞來使用。在日常生活中,我們隨時隨地都會聽到有人說“熱死了”,“冷死了”,“煩死了”,“討厭死了”,像這類句子在人類看來只是十分常見的日常用語,但是機器對此卻難以判定。因為機器家族對這個世界暫時還不存在一個全面的感知系統(tǒng)。當中國被譽為“四大火爐”的幾個城市一到夏天,每一個人都能感受到高溫的襲來,也會知道在這個時候說“熱死了”是多么正常的表達,而機器能怎么辦呢,它可并不知道現(xiàn)在的現(xiàn)實世界到底有多熱呀。

    另外,在機器的背后還需要思考的問題是懸在各大社交平臺頭頂?shù)囊话堰_摩利斯克之劍—隱私之殤。6月4號,《紐約時報》的報道稱在過去十年中,F(xiàn)acebook至少與60家設(shè)備制造商(包括蘋果、亞馬遜、黑莓、微軟和三星)達成協(xié)議,向它們提供用戶隱私信息,這些協(xié)議中的多數(shù)至今還在生效。Facebook建立了最龐大的信息帝國,但是每一次信息技術(shù)的革命只是在表面上讓信息看上去更加去中心化,然而實際上卻只是建立了更加龐大的信息壟斷市場。對比現(xiàn)實世界的條條框框,網(wǎng)絡(luò)承擔了社會“減壓閥”的功能。負面情緒再怎么樣都是人類的基本情緒,也是人類該有的脆弱。原本以為在無弗屆遠的網(wǎng)絡(luò)世界,你能擁有一隅展示脆弱的機會。但是,誰知道你的脆弱已經(jīng)被平臺收集,你躲在黑暗中卻被各大商家悄悄盯上。在商業(yè)的世界中,商人需要不斷發(fā)掘人性的弱點,便于制定推廣商品的策略。而Facebook正在承擔這樣一個“老鴇”的角色給商家提供人性的弱點,令人扼腕。

    娜拉出走之后,AI防自殺系統(tǒng)還能做什么

    AI防自殺系統(tǒng)在正式投入使用后,一個月檢測并攔截到的自殺事件有上百個,確實有效挽救了不少生命。但是從一個爭議不斷的社交平臺的角度來說,AI防自殺系統(tǒng)的目的到底是什么還需要探討。這樣的一套AI程序究竟是為了及時拯救生命,還是肅清平臺環(huán)境,還是僅僅只是平臺針對外界質(zhì)疑的擋箭牌而已。如果,這是為了及時拯救生命,那么這樣的AI防自殺系統(tǒng)會面對一個非常有爭議的問題,就是娜拉出走之后的問題。今年5月,在廈蓉高速服務(wù)區(qū)發(fā)生一起因欠下巨額高利貸而全家自殺的事件,而事件的主人公正是去年在微博發(fā)布遺書之后在海南警方及時救援下最后自殺未遂的同一家人。從這件事中,我們可以意識到微博作為信息平臺可以發(fā)現(xiàn)并識別這樣的自殺信息,但是拯救了一次之后呢?該自殺的還是照樣自殺,只不過這次卻不關(guān)我的事了。說得冷漠一點,或許這些信息平臺真正想說的只是:自殺是你的自由,但是請別在我的地盤上自殺。看懂了這一層的邏輯后,這個AI防自殺系統(tǒng)似乎光環(huán)不再,最終,F(xiàn)acebook防來防去,防的還是利益損失。

    但除去一些個例,AI防自殺系統(tǒng)還是有很大的落地空間。因為AI防自殺系統(tǒng)不僅是在社交平臺,還在醫(yī)療機構(gòu)、審訊機構(gòu)等可以發(fā)揮作用,及時阻止一些不必要的傷亡。目前,自殺已經(jīng)成為世界第十大死亡原因,2016年美國衛(wèi)生統(tǒng)計中心發(fā)布的數(shù)據(jù)顯示,美國的自殺率在15年間上升了24%。但在全球自殺的人群當中,仍然有相當一部分人是屬于非理性自殺,他們需要有一個AI防自殺系統(tǒng)能夠幫助他們再獲得一次重生的機會。所以,期待AI防自殺系統(tǒng)在解決了一些硬性問題之后,全面落地到日常生活當中,拾取更多可能在不經(jīng)意間逝去的生命。

    【完】

    智能相對論(微信id:aixdlun):深挖人工智能這口井,評出咸淡,講出黑白,道出vb深淺。重點關(guān)注領(lǐng)域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。

    極客網(wǎng)企業(yè)會員

    免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2018-06-07
    看不透的AI防自殺背后,防的是利益損失
    原標題:看不透的AI防自殺背后,防的是利益損失 文|楊蘇穎 來源|智能相對論(ID:aixdlun) 很忙的扎克伯格決定在全球范圍內(nèi)推廣AI防自殺系統(tǒng)以平息用戶對Facebook的不滿情緒,這是怎么回

    長按掃碼 閱讀全文