這幾年,以今日頭條為代表的“算法分發(fā)”模式席卷全球互聯(lián)網(wǎng)行業(yè)。而各界對算法的非議也漸漸浮現(xiàn),有的認(rèn)為它“計算不準(zhǔn)”,有的認(rèn)為它“惡意推薦”,甚至還出現(xiàn)了“算法技術(shù)應(yīng)退出時代舞臺”的論調(diào)。
事實(shí)上,對科技公司來說,算法是一把雙刃劍,一方面在驅(qū)動其業(yè)績增長方面立下了汗馬功勞,另一方面卻“后患無窮”。以今日頭條為例,該公司幾乎完全憑借算法,快速超越了傳統(tǒng)門戶的人工編輯模式,優(yōu)勢極為明顯;但在判斷內(nèi)容質(zhì)量,發(fā)現(xiàn)傳播風(fēng)險方面,算法卻還處于非常初級的階段,不太能指望得上。
總的來說,隨著算法的發(fā)展,這個代碼疊加的技術(shù)正逐漸創(chuàng)造一個沒人能理解的世界......
2018年3月18日,悲劇發(fā)生了,這也是科技人士所擔(dān)心的。那天晚上,一輛Uber無人車在自動駕駛的狀態(tài)下行駛,突然檢測到前方有障礙物出現(xiàn)。一系列雷達(dá)和激光雷達(dá)傳感器探測到的數(shù)據(jù)讓機(jī)載算法開始計算,假設(shè)障礙物保持不動,車速穩(wěn)定在43英里/小時,那現(xiàn)在二者的距離只需6秒。但是道路中的物體很少保持靜止,于是更多的算法開始搜索可識別生物實(shí)體的數(shù)據(jù)庫,以尋找一個模型來推出一個完美的解決方案。
起初,計算機(jī)空白了幾秒,隨后決定與障礙物“碰面”希望它能自行離開。然而,到最后一秒,該車才清楚的知道,這是一位推著自行車的女士。在這種情況下,汽車想要繞過去,但因為禁止自行采取規(guī)避行動,計算機(jī)只能將控制權(quán)交還人類。遺憾的是,安全員正在開小差,悲劇就這樣發(fā)生了:49歲的Elaine Herzberg在車禍中去世。這件事也給科技界的留下了兩個值得反思的問題:這種算法造成的悲劇是不可避免的嗎?我們應(yīng)該如何應(yīng)對這些事件?
“在某些方面,我們失去了控制權(quán)。當(dāng)程序進(jìn)入代碼,代碼進(jìn)入算法,然后算法開始創(chuàng)建新算法時,它會越來越不受人類控制,軟件也就進(jìn)入了一個沒人能理解的代碼世界?!笔遣皇锹犉饋砗荏@悚,事實(shí)也會如此。這句話出自Ellen Ullman之口,她是自20世紀(jì)70年代以來的一位杰出的專業(yè)程序員,也是為數(shù)不多的幾位出版過關(guān)于編程的書的人。
“人們可能會說,‘那Facebook呢?他們創(chuàng)造并使用算法,還會進(jìn)行改進(jìn)?!@不是Facebook的運(yùn)作方式。研究員設(shè)置算法,它們學(xué)習(xí),改變和運(yùn)行自己。Facebook定期介入,但他們真的無法控制這些算法,對特殊的算法而言,它們不僅僅是自主運(yùn)行,還會調(diào)用數(shù)據(jù)庫,進(jìn)入深層操作系統(tǒng),等等?!?/p>
什么是算法?
如今,很少有哪種技術(shù)會比算法更受歡迎,但算法究竟是什么呢?從根本上說,算法是一個小而簡單的事情,即用于自動處理數(shù)據(jù)的規(guī)則。如果a發(fā)生了,那么執(zhí)行b;如果沒發(fā)生,那就執(zhí)行c。這是經(jīng)典計算的“if / then / else”邏輯。核心上,計算機(jī)程序是這類算法的捆綁,為它們投遞處理數(shù)據(jù)。
不過,近年來算法出現(xiàn)了一種很模棱兩可的定義,指任何大型、復(fù)雜的決策軟件系統(tǒng),根據(jù)一組給定的標(biāo)準(zhǔn)(或“規(guī)則”),獲取數(shù)據(jù)輸入并快速評估。這徹底改變了醫(yī)學(xué)、科學(xué)、交通、以及通信領(lǐng)域,讓人們的生活在各個方面變得更好。
直到2016年,我們對算法有了新的思考。像Facebook和谷歌這樣的公司開始以客觀的承諾為算法辯護(hù),認(rèn)為它可以通過數(shù)學(xué)分離和缺乏模糊情感來權(quán)衡一系列條件?;诖?,這種算法決策擴(kuò)展到了發(fā)放貸款、保釋、福利、工作面試以及其他任何需要選擇的事情上。
現(xiàn)在的我們不再能接受這種對算法的“推銷”。凱西·奧尼爾(Cathy O'Neil)在其著作《數(shù)學(xué)破壞武器》(Weapons of Math Destruction)中表示,對于人類的偏見,算法不僅會鞏固還會放大,而不是消除。對此,她呼吁對任何能直接影響公眾的系統(tǒng)進(jìn)行“算法審計”(algorithmic audits),這是一個明智的想法,不過對科技行業(yè)不是一件好事,因為算法是他們的支撐,他們最不愿做的就是透明化。
好消息是這場戰(zhàn)斗正在進(jìn)行中,壞消息是人們的注意力都集中在人工智能的遙遠(yuǎn)承諾和威脅上,幾乎沒人注意到我們進(jìn)入了算法革命的新階段。由奧尼爾和其他人所創(chuàng)造的算法是不透明但可預(yù)測的,我們將這些算法稱為“dumb”,它們能根據(jù)人類定義的參數(shù)來完成工作。
而結(jié)果的質(zhì)量取決于編程的思想和技巧。其終極目的便是人工智能或AGI。一個智能機(jī)器將能夠基于直覺(我們可能認(rèn)為是經(jīng)驗和知識的積累)質(zhì)疑自己的計算質(zhì)量。谷歌DeepMind創(chuàng)建的AlphaGo就是一個很好的例子。事實(shí)上,在某些特定任務(wù)中,計算機(jī)已經(jīng)遠(yuǎn)遠(yuǎn)優(yōu)于人類,但要與人類的能力相比媲美,還需要時間。
現(xiàn)實(shí)生活中的危險
回到之前Uber無人車發(fā)生事故的原因。目前正在測試的自動駕駛汽車可能包括1億行代碼,并且鑒于沒有程序員可以預(yù)測真實(shí)世界道路上的所有可能情況,他們必須學(xué)習(xí)并接收不斷更新。我們?nèi)绾伪苊庠诖舜a環(huán)境中發(fā)生沖突,尤其是算法可能還需要保護(hù)自己免受黑客攻擊的時候?
二十年前,George Dyson在他的經(jīng)典著作《電腦生命天演論》(Darwin Among the Machines)中預(yù)測了今天發(fā)生的大部分事情。他表示問題在于我們正在構(gòu)建超出控制范圍的系統(tǒng)。人們總是相信,如果一個系統(tǒng)是確定的(根據(jù)固定規(guī)則行動,這是一個算法的定義),它就是可預(yù)測的,并且預(yù)測也是可控的。實(shí)際上,這兩個假設(shè)都是錯誤的。
與以前的電子機(jī)械系統(tǒng)不同,新算法無法進(jìn)行詳盡的測試。除非我們擁有超級智能機(jī)器為我們做這件事,否則我們就是在鋌而走險。因此,從目前的情況看,重點(diǎn)是機(jī)器學(xué)習(xí)。我們都知道,今年早些時候,Uber自動駕駛汽車出現(xiàn)了致死事故,因為算法在對行人分類時猶豫不決。這是由于編程不佳,算法培訓(xùn)不足還是拒絕接受技術(shù)的局限性造成的?真正的問題是我們可能永遠(yuǎn)不會知道答案。
新南威爾士大學(xué)的人工智能教授Toby Walsh表示,“我們最終會完全放棄編寫算法,因為未來機(jī)器能比以我們做得更好。從這個意義上說,軟件工程可能是一個垂死的職業(yè)。它將被機(jī)器接管。”此外,他還指出,這會讓人們學(xué)習(xí)編程變得更加重要,因為隨著我們越來越疏離編程,就會越覺得它的影響超出了我們的能力。另外,倫理在科技領(lǐng)域來說,是最重要的。畢竟,哪里有選擇,哪里就是道德所在的地方。
相反的觀點(diǎn)是,一旦程序出現(xiàn)問題,整個程序群體就可以被重寫或更新,同一種情況就不會再發(fā)生了,而不像人類,重復(fù)錯誤的傾向可能更會誤導(dǎo)機(jī)器。盡管如此,雖然從長遠(yuǎn)來看自動化應(yīng)該更安全,但我們現(xiàn)有的侵權(quán)法體系需要重新定制,這需要有意或過失的證明。
其實(shí),上文描述的大多數(shù)問題,也都在尋找解決方案。從長遠(yuǎn)來看,會有更多的人猜測,考慮到我們越來越依賴的算法系統(tǒng)的規(guī)模,復(fù)雜性和相互依賴性,當(dāng)前的編程方法已不再適用。對此,部分航空航天工業(yè)采用了一種較新的被稱為“基于模型的編程”的方法,其中機(jī)器完成大部分編碼工作并且能夠隨時進(jìn)行測試。
然而,基于模型的編程可能不是萬能的靈丹妙藥。它不僅使人類進(jìn)一步遠(yuǎn)離這一過程,而且人類也無法從代碼本身推斷出極端行為,即使是在使用大型復(fù)雜系統(tǒng)構(gòu)建的情況下也是如此。當(dāng)我們等待技術(shù)上的答案來解決算法問題時,或許采用一些預(yù)防措施才是最重要的。
文/人工智能觀察
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )