精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    矛盾著的算法,算法中的矛盾

    摘要:今日頭條事件,最近可謂是沸沸揚揚,總裁CEO的致歉,公眾再一次看到了這個已經(jīng)討論過許久的問題——算法問題。張一鳴在道歉中說道:“產品走錯了路,出現(xiàn)了與社會主義核心價值觀不符的內容,沒有貫徹好輿論導向,

    今日頭條事件,最近可謂是沸沸揚揚,總裁CEO的致歉,公眾再一次看到了這個已經(jīng)討論過許久的問題——算法問題。張一鳴在道歉中說道:“產品走錯了路,出現(xiàn)了與社會主義核心價值觀不符的內容,沒有貫徹好輿論導向,接受處罰,所有責任在我。公司目前存在問題的深層次原因是:“四個意識”淡薄、社會主義核心價值觀教育缺失、輿論導向存在偏差。一直以來,我們過分強調技術的作用,卻沒有意識到,技術必須要用社會主義核心價值觀來引導,傳播正能量,符合時代要求,尊重公序良俗?!?/strong>

    Facebook CEO馬克·扎克伯格(Mark Zuckerberg)承認,不管人們有沒有Facebook賬號,他的公司都會對其展開追蹤。在扎克伯格發(fā)表這一言論后,外界對于Facebook在尊重數(shù)據(jù)隱私上的擔憂正在擴大,現(xiàn)在增加了Facebook收集非用戶信息的擔憂。自從3月Facebook承認數(shù)百萬用戶的信息以不當方式落入政治咨詢公司劍橋分析(Cambridge Analytica)手上之后,隱私擔憂問題就一直困擾著Facebook。美國國會議員和隱私擁護者立即對Facebook的這一行為表示抗議。許多人表示,F(xiàn)acebook需要研究出一種方法,讓非用戶知道自己的哪些信息已被Facebook收集。與此同時,歐盟新隱私法《通用數(shù)據(jù)保護條例》(GDPR)將會生效,要求企業(yè)在收集數(shù)據(jù)前需要向人們發(fā)出通知,并征得同意,互聯(lián)網(wǎng)時代下算法暴露出來的隱私權問題,值得深思。

    除了Facebook之外,還有兩家大公司也同時曝光,亞馬遜和谷歌在新專利中提出,他們旗下的智能家居設備Google Home與Amazon Echo設備可一直開啟,并隨時了解到用戶從情緒到健康狀況的所有信息,并根據(jù)這些信息推送廣告,引發(fā)消費者組織對于此類產品涉嫌侵犯用戶隱私的擔憂。據(jù)《紐約時報》報道,在谷歌的專利申請中,描述了其智能設備通過音頻和視頻更好地理解用戶情緒或醫(yī)療狀況的新特點。亞馬遜和谷歌的專利申請顯示,他們的智能音箱可能已經(jīng)在窺探人們。研究發(fā)現(xiàn),即使用戶認為設備并沒有在聽,數(shù)字助理也可能處于喚醒狀態(tài)?;ヂ?lián)網(wǎng)時代下,如何去保護隱私成為各大公司必須要做的話題。

    算法是什么?

    算法,就是明確定義的計算過程,它接收一些值或集合作為輸入,并產生一些值或集合作為輸出。比如收集用戶瀏覽習慣作為輸入,整合信息后為用戶精準推送其喜歡的內容作為輸出,這個過程就是由算法完成的?;ヂ?lián)網(wǎng)時代下的產物,是時代造就了新的技術,那么究竟是算法技術有偏差,導致今天的局面么?并不是,這是一個難以解答的矛盾,矛盾著的算法,算法中的矛盾。

    在受眾測量領域,算法通常用于進度計劃分析軟件,該軟件由媒體策劃人員、購買者和銷售者使用,以估算可能看到或聽到廣告信息的人數(shù)。算法實際上屬于人工智能,這種人工智能其本質是以數(shù)理模型為核心工具,結合控制論、認知心理學等其它學科的研究成果,最終由計算機系統(tǒng)模擬人類的感知、推理、學習、決策等功能,這種算法有助于澄清對人工智能的種種誤解和偏見,幫助我們更清晰地認識人工智能的長 處和局限,從而更合理、有效地將人工智能運用于投資領域。

    如果一個算法有缺陷,或不適合于某個問題,執(zhí)行這個算法將不會解決這個問題。不同的算法可能用不同的時間、空間或效率來完成同樣的任務。一個算法的優(yōu)劣可以用空間復雜度與時間復雜度來衡量。算法中的指令描述的是一個計算,當其運行時能從一個初始狀態(tài)和(可能為空的)初始輸入開始,經(jīng)過一系列有限而清晰定義的狀態(tài),最終產生輸出并停止于一個終態(tài)。一個狀態(tài)到另一個狀態(tài)的轉移不一定是確定的。隨機化算法在內的一些算法,包含了一些隨機輸入。隨著計算機的發(fā)展,算法在計算機方面已有廣泛的發(fā)展及應用,如用隨機森林算法,來進行頭部姿勢的估計,用遺傳算法來解決彈藥裝載問題,信息加密算法在網(wǎng)絡傳輸中的應用,并行算法在數(shù)據(jù)挖掘中的應用等。

    “算法”可目中無法

    完全依據(jù)人工智能進行的算法,可以說極大地縮短了文章篩選的時間,但是同時這種方式的弊端,隨著時間的推移,弊端逐漸暴露地越來越明顯,算法與法律的矛盾也越來越尖銳。沒有人工的編輯和運營,最終可能會出現(xiàn)難以控制的后果,這就像打開水閘,不僅要算算水量會不會造成危害,需要不需要導流,而且更要增加濾網(wǎng),防止泥沙俱下。算法主導的信息分配機制,固然可以高效地打造“私人訂制”,但同樣需要一定的人工干預,需要一定的價值引導,否則全面迎合依托于社交網(wǎng)絡不停上演的“英雄所見略同”,會制造一種不文明的社會假象,把青少年引入歧途。

    算法是技術的革新,互聯(lián)網(wǎng)時代下技術在不斷地發(fā)展,人類的進步需要技術的發(fā)展,誰也不能阻擋新時代的到來,科技時代給人類的改變是毋庸置疑的。智能手機的推出,改變了人們接受信息的方式和速度,加快了生活節(jié)奏;移動支付的普及,不用再帶錢包出門,支付方式的改變帶來了更好的生活品質;無人倉庫、無人超市、無人銀行等人工智能場所,改變著人們生活的狀態(tài),加快了辦事效率??梢哉f,技術改變著我們的生活,創(chuàng)造著我們的生活,這種革新是我們需要的,不能夠停止,但是這與法律之間的矛盾卻一直存在著。

    法律是對于行為規(guī)范的制約,技術的革新速度超乎著人們的想象,法律的制定需要時間檢驗,更需要在實踐的基礎上形成法律,法律的發(fā)展速度很難跟得上技術的革新,就像是算法的出臺,問題的出現(xiàn),法律制度卻時時不能完全解決,這是一個不可避免的時代矛盾,算法不可以目中無法。

    “算法”不可無視道德

    實際上,不僅僅是今日頭條,很多其他的平臺也出現(xiàn)著一系列的問題,抖音、微博、微信、QQ等平臺都出現(xiàn)過不良信息的流傳問題,人工智能的算法推送下,危機重重。我們不可以無視這種病態(tài)的模式,畢竟在使用群體中還存在著大量的心智不成熟的未成年,可能還有一些3、4歲的小朋友,他們無疑地玩耍父母的手機,就會接受到這些不良信息。不同平臺依據(jù)其特定目標而設置不同的算法,但在制定和取舍上幾乎都指向利益。短視頻平臺是為了增加用戶黏性和在線時長、電商網(wǎng)站是為了提高買賣雙方連接效率……但基于算法推薦的內容容易出現(xiàn)同質化、低俗化,浪費了用戶的時間和注意力,對未成年用戶也易造成不良影響,其中一些內容還有打法律擦邊球的嫌疑,雖然打著法律的擦邊球,但是它一定是觸犯了道德。

    一種技術的發(fā)明和推廣,本是以提高效率、造福于人和社會為初衷的,但現(xiàn)實是一些技術在使用中,特別是早期階段,往往會伴隨一些不良現(xiàn)象,就像筆者上文所述一樣,我們不能阻礙這種技術的革新,但是這與道德的矛盾是我們不能忽視的。

    如何建立一個良好的價值觀,是所有的平臺都需要考慮的問題,價值觀的形成對于整個社會來說是一個非常重要的問題,我們生活的環(huán)境會改變我們,不是說你意志堅定就可以避免的,它是一種潛移默化、步步深入的過程,會讓你形成一種習慣,就好像現(xiàn)在我們每個人坐地鐵都會手持一臺手機,這已經(jīng)變成了我們的一種習慣,那么道德的流逝就成為了一種常態(tài),近幾年,很多匪夷所思的新聞充斥著我們的生活,因為沒帶鑰匙將室友殺死、自殺投毒比比皆是,這難道不是道德教育的淪喪么?對于我們國家的下一代培養(yǎng)教育過程中,如何建立良好的價值觀是我們所有人必須要考慮的問題,算法與道德的矛盾是時代下不可避免的矛盾,算法不可無視道德。

    算法不可輕視倫理

    倫理在漢語中指的就是人與人以及人與自然的關系和處理這些關系的規(guī)則。如:“天地君親師”為五天倫;又如:君臣、父子、兄弟、夫妻、朋友為五人倫。忠、孝、悌、忍、信為處理人倫的規(guī)則。從學術角度來看,人們往往把倫理看作是對道德標準的尋求。在我們國家,對于倫理觀點是源遠流長的,從儒學開始,這種綱常倫理就成為中國人們生活的行為準備,但是現(xiàn)如今,這種狀態(tài)正在被逐一打破。

    互聯(lián)網(wǎng)平臺擁抱技術算法,表面看是平臺依托大數(shù)據(jù)分析,由算法主導興趣推送,把用戶喜好的信息“送上門”,而實際上,算法也好,大數(shù)據(jù)也罷,都是互聯(lián)網(wǎng)信息技術的組成部分,這些技術本身沒有優(yōu)劣屬性,發(fā)揮正向還是負向的價值。不少用戶并不是把今日頭條當成新聞資訊產品看待,而是當成和小說、游戲、電視劇一樣的娛樂休閑產品看待,他們用今日頭條來殺時間,跟用“王者榮耀”或者肥皂劇來殺時間,性質是一模一樣的。

    快手上直播“給孩子倒立”、“欺負孩子”等視頻風靡,出現(xiàn)過孩子脊椎摔傷、骨折等問題,這難道不是一種倫理的流失么?14歲懷孕少女直播自己當媽媽的喜悅,曬自己的萌娃,這也可以成為一種潮流么?直播露大腿、漏胸等低俗行為,難道也應該在平臺上肆意傳播么?倫理的流失正在一步一步侵蝕著我們的生活,算法不可以無視倫理!

    當然,除了與法律、道德、倫理之間無解的矛盾之外,算法還存在著一些不可避免的問題。第一個問題就是安全問題,智能算法對于信息安全的保障現(xiàn)在很難達到一個很高的標準,算法實際上就是一連串的代碼,這種將用戶信息完全暴露在計算機系統(tǒng)里,如果一旦遇到黑客,將系統(tǒng)中的信息非法利用,對于使用者來說,是一個非常大的安全隱患,數(shù)字科技的高速發(fā)展下,信息的安全問題是我們不得不思考和解決的重要問題,如何有效地緩解這種安全隱患,是企業(yè)在選擇人工智能算法之前就需要考慮的問題,并不是要等到問題已經(jīng)爆發(fā),再去想解決方案,那時已經(jīng)為時過晚。

    第二個問題也是互聯(lián)網(wǎng)時代下,我們不得不考慮和面對的問題,就是用戶的隱私權問題。算法可以最快速地將用戶喜歡的、感興趣的話題推送給用戶,可以在這個的后面實際上是用戶的個人隱私泄露問題,可能用戶本身并不想要將自己的喜好、瀏覽記錄曝光。隱私權問題是互聯(lián)網(wǎng)時代不可以避免的話題,個人的隱私在透明的網(wǎng)絡中肆意傳播,如何可以在使用人工智能等高科技的同時,保障用戶的個人隱私得到最大的保護,這應該是科技公司下一步必須要面對和挑戰(zhàn)的難題。

    社會的進步,離不開先進技術的開拓者,同時更離不開基本價值的守望者,即使技術再先進,也不能主觀或客觀地損害公共利益、損害任何一個人應有的權益,抹黑社會文明,這是所有創(chuàng)業(yè)者需要考慮的問題,科技公司知道如何盈利是你的本事,但是如何掙良心錢,是你的素質,只有真正走入人心的企業(yè)才能越走越穩(wěn)!

    免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

    2018-04-16
    矛盾著的算法,算法中的矛盾
    摘要:今日頭條事件,最近可謂是沸沸揚揚,總裁CEO的致歉,公眾再一次看到了這個已經(jīng)討論過許久的問題——算法問題。

    長按掃碼 閱讀全文