這一次人工智能的狂飆突進很有可能是真的。
技術(shù)和基礎(chǔ)設(shè)施的進步讓人工智能真的可以投入到實際應(yīng)用中去。目前來看,人工智能的實際應(yīng)用中一個非常宏偉也非常有前景的領(lǐng)域就是——自動駕駛。
自動駕駛有望將人類從駕駛汽車,這個最不安全也是最浪費時間精力和各種資源的領(lǐng)域解放出來,將帶來整個汽車行業(yè)乃至整個社會形態(tài)的革命。
然而自動駕駛的安全性疑慮和呼聲一直不?。嚎傆泻芏嗳瞬环判膶⒆约旱男悦耐杏谝慌_機器上。這種懷疑也衍生出了很多不同的版本,其中最有趣的就是傳統(tǒng)道德哲學(xué)中的“電車問題”在新時代的翻版:自動駕駛的道德問題。
道德問題的源起
如果一輛自動駕駛的汽車遇到了這樣一個困境:在馬上就要出車禍的當下,左邊是一個老人,右邊是五個孩子,它應(yīng)該怎么判斷,如何選擇行動?我們應(yīng)該將這種道德判斷納入自動駕駛系統(tǒng)開發(fā)的考量嗎?
首先,我們可以先回顧一下這個道德問題的源起。
“電車問題”是道德哲學(xué)的一個經(jīng)典問題:如果說開來一輛火車,前面是兩條岔路,你手頭有一個扳道岔,你如果不扳,火車就會走原路撞死五個人;如果你扳了,火車就會走上岔路撞死一個人。請問你是扳還是不扳呢?
這就是傳統(tǒng)道德哲學(xué)所爭論的核心:功利主義和絕對主義的區(qū)隔。
功利主義說:當然是死一個人要比死五個人好;絕對主義則說:你扳道岔的動作等于是殺死了一個原本不會死的人,所以并沒有哪個比哪個更好!這些爭論持續(xù)了好幾代人的時間,電車問題也出現(xiàn)了無數(shù)個不同的版本,直到如今這個自動駕駛的時代,仍然會有人問與之相似的問題。
但這里的問題自然就是:一種絕對的,抽象化的道德問題,是否適用于具體的情境分析?傳統(tǒng)的道德哲學(xué)適用于我們對具體問題的判斷嗎?或許我們要引入現(xiàn)代的認知科學(xué)的研究結(jié)論。
長久以來,古典意義上的道德哲學(xué)家都基于理性來推導(dǎo)道德的實在性。他們認為人類是通過理性來判斷道德問題的,功利主義或者絕對主義,都是理性基礎(chǔ)上的爭論。然而現(xiàn)代認知科學(xué)告訴我們:人類對道德的判斷根本就不是通過理性做出的。
心理學(xué)家丹尼爾·卡尼曼在那本著名的《思想快與慢》中指出,人類的大腦分成兩個系統(tǒng):
依賴直覺的系統(tǒng)1,與理性的系統(tǒng)2。系統(tǒng)1反應(yīng)非常快,不需要我們投入多少關(guān)注就能夠完成任務(wù),比方說游泳,騎車,或者認臉;而系統(tǒng)2則需要人的有意努力才能夠工作,理性的“思考”,也就是“想”,是系統(tǒng)2的任務(wù),它精確卻緩慢,耗能很高。
喬納森·海特在認知科學(xué)著作《正義之心》中表示:之前的道德哲學(xué)家往往將道德視作理性的結(jié)果,也就是說,是系統(tǒng)2的任務(wù);但是心理學(xué)實驗表明,道德在人類的實際認知中,很大程度上(并非是完完全全的)是系統(tǒng)1的工作;而系統(tǒng)2只起到了一點“事后辯護”的工作。
他做了一個實驗:加大實驗對象的系統(tǒng)2負擔,比方說記住一個很大的數(shù)字,然后再做道德判斷,結(jié)論是在系統(tǒng)2不堪重負的情況下做道德判斷仍然很快,這說明道德判斷不是系統(tǒng)2的工作。
所以說,人類做出道德判斷,實際上是基本訴諸直覺的。
在這里,我們可以將自動駕駛的道德問題拿來考驗人類駕駛員。在一個實際的場景中,你就會發(fā)現(xiàn)這樣的一個理想假設(shè)問題是毫無意義的:在即將出車禍的危急時刻,人類是依靠本能來反應(yīng),99%的人類司機都不會在這個時候思索一些復(fù)雜的諸如“該撞哪邊”這樣的道德哲學(xué)問題——那么我們?yōu)槭裁磿髾C器來完成這種人類都完不成的事情?
回到現(xiàn)實,就會發(fā)現(xiàn)目前這樣的給自動駕駛所提出的道德問題實際上毫無意義。
現(xiàn)實生活中并不會出現(xiàn)你剛好站在一個扳道岔,前面是一輛沒有剎車的火車這樣的情況;同樣,現(xiàn)實的交通中同樣也不會出現(xiàn)一條筆直的高速公路,前面是一堵墻,左邊是一位老奶奶,右邊是一個小學(xué)生,就看你要撞誰這樣的情況。
現(xiàn)實中的交通場景,我們只能規(guī)約到現(xiàn)實的條件中來:車輛輪胎的抓地力如何?剎車情況如何?路面是否濕滑?左右行人距離和方向?臨車位置?
這一切都要納入考量,然后讓人工智能來判斷最優(yōu)的解決方案——在99.999%的情況下我相信機器的解決方案都比人更優(yōu),因為機器不會走神,不會酒駕,不會打瞌睡,永遠警惕。
況且,在正常駕駛中機器顯然不會出車禍,而出車禍顯然是機器遇到了故障,這也就意味著你要讓一臺機器出了故障的情況下正常工作——這基本就等價于停機問題:你如何能夠要求一臺計算機去預(yù)測它的停機時間?
我認為“自動駕駛的道德問題”實際上真的存在,但完全不是我們所看到的這種“要撞誰”的天真問題:自動駕駛的道德問題實際上只有一個:我們應(yīng)不應(yīng)該盡快普及自動駕駛。
如何降低死亡率,是最大的道德問題
全世界每年因交通事故死亡人數(shù)超過百萬,中國每年交通事故死亡超過25萬,占四分之一。如何降低這個數(shù)字,就是最大的道德問題。
而統(tǒng)計結(jié)果表明,交通事故有70%是人為因素;考慮到很多原因?qū)嶋H上是人類自身的生理限制,純粹的機械因素在交通事故中的占比應(yīng)該還要更低。我們甚至可以這樣說:在交通中最危險的不是任何一種機器,而是人類自己。
所以,目前自動駕駛最大的道德問題在于,我們對于人類駕駛和對于自動駕駛的態(tài)度是完全的雙重標準:
我們對于自動駕駛的看法是,在自動駕駛系統(tǒng)能夠保證100%不出錯之前都不能使用它——這個標準自然是不可能達到的,世界上沒有完美的東西。而對于人類駕駛的標準——其實是沒有標準。
如果我們統(tǒng)一標準,將自動駕駛的標準設(shè)定為“統(tǒng)計意義上人類司機的平均水平”,那我相信這一標準早就達到了。現(xiàn)在我們看到業(yè)界對于自動駕駛系統(tǒng)的開發(fā),無非是在“超過95%以上人類司機的水平”還是“超過99%以上人類司機的水平”上努力——這樣的努力當然有意義,但是從整個大圖景來看,不是雪中送炭而是錦上添花。
所以自動駕駛的道德問題的答案是很清楚的:我們應(yīng)該盡快的普及自動駕駛,所要跨越的,更大程度上是法律和人心的障礙,而不是技術(shù)障礙。
自動駕駛下的世界肯定要比現(xiàn)在更美好得多:交通事故發(fā)生率有數(shù)量級的下降,人們不用再擔心被一輛酒駕或者打瞌睡的司機撞到,機器也不會忽略交通標志,在晚上也能看得清清楚楚。
作為乘客,我也不需要再在長途車上浪費我的精力和時間,忍著疲勞去開10個小時車:自動駕駛情況下這段旅程我大可以睡一覺,玩游戲,看風景,干什么都行,就跟我們現(xiàn)在坐高鐵一樣。
大城市糟糕的交通情況也將會有極大的改善:統(tǒng)計數(shù)據(jù)表明,在任意時刻,80%以上的車輛都是靜止的。
如果我們能夠通過自動駕駛將車輛利用率提高到50%,城市中也減少了30%以上的車輛:道路不再會是停車場,多余的停車場大可以用來改建成綠地,公園,或者其他更加能夠讓人放松的元素。
我的推斷是2030年前后,人類駕駛將被完全取締:讓人駕駛將會是一項極不道德的行為,就如同現(xiàn)在的自動駕駛一樣。
我會開車,但是自從我經(jīng)歷過連續(xù)驅(qū)車兩天,每天10小時以上的旅行之后,我就變成了一個堅決的自動駕駛擁護者。從功利主義角度,自動駕駛毫無疑問將會拯救很多人的生命,他們原本將會被水平差勁、喝過酒或者正在打瞌睡的人類司機撞死。
于是,如果是你站在這個扳道岔上,失控的火車原本走上的那條道路上有好幾百萬人,而這條岔道上一個人都沒有,那你是否要扳動這個道岔呢?
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 預(yù)計2024年中國折疊屏手機出貨量將達910萬部,華為占據(jù)半數(shù)份額
- Counterpoint:59%的受訪者計劃在一年內(nèi)升級到Gen AI智能手機
- 美國ITC裁定聯(lián)想智能手機侵犯愛立信專利
- 英特爾高通隔空叫陣:兩大巨頭在較什么勁?
- IDC最新預(yù)測:2024年P(guān)C和平板電腦市場將增長3.8%至4.035億臺
- 蘋果Vision Pro頭顯即將登陸中國臺灣,12月17日正式發(fā)售
- 全球折疊屏手機出貨量首次遭遇季度下滑,三星旗艦機型表現(xiàn)不佳是主因
- HUAWEI Mate X6 震撼登場,折疊引領(lǐng)者,巔峰再跨越
- 五年持續(xù)領(lǐng)跑,華為折疊屏一步領(lǐng)先,一路領(lǐng)先
- 全新HUAWEI MatePad Pro 13.2 英寸首發(fā)亮相,鴻蒙專業(yè)生產(chǎn)力體驗再升級
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。