原標(biāo)題:當(dāng)AI有了“自由意志”
在人工智能呈現(xiàn)一番欣欣向榮的景象之時,這項技術(shù)的問題和潛在威脅也正在顯現(xiàn)。是時候認(rèn)真探討一下AI技術(shù)的“價值觀”問題了。
很多人最近一定注意到,有關(guān)AI的負(fù)面新聞頻頻上頭條,而且還帶有很強(qiáng)的魔幻色彩。
11月20號,韓國13歲的天才圍棋少女金恩持承認(rèn)了她在9月底的一場在線圍棋比賽中作弊,使用了AI推薦的棋譜,約等于斷送了自己的職業(yè)生涯。11月27日,伊朗核武器專家法赫里扎遭到一挺由AI控制的自動機(jī)槍的襲擊而身亡,這意味著精準(zhǔn)的人臉識別技術(shù)作為AI武器已經(jīng)參與到人間的殺戮當(dāng)中。
說回國內(nèi),前一段時間有人帶頭盔去售樓處看房,就是為避免被房地產(chǎn)商進(jìn)行精準(zhǔn)的人臉識別而被,當(dāng)做“熟客”來“宰殺”,人臉識別濫用問題已擺在我們面前。更荒誕的是,最近曝出一個房產(chǎn)中介就利用政府機(jī)構(gòu)的在線服務(wù)的流程流動,輕而易舉地讓售房者在不知情的狀況下通過人臉識別系統(tǒng)把房子過戶給了買家,自己套取了交易款。原本為民提供便利的AI服務(wù)成了別有用心者的幫兇。
“殺人者人也,非刀也”,這是我們?yōu)椤肮ぞ邿o道德價值”做辯護(hù)的古老理由,也是人類確證自己具有獨一無二的道德價值的傲嬌說辭。同樣這一理由似乎也可以為上面這些AI的負(fù)面案例做解釋,可以說這里的AI技術(shù)也都只是人類應(yīng)用的工具,真正始作俑者的還是人類。
這樣說似乎無可厚非,正如一切技術(shù)的發(fā)明帶給人類巨大福祉的同時也可能帶來可能的災(zāi)禍一樣,反之亦然。比如諾貝爾發(fā)明的炸藥可以開礦搬山也可以投入戰(zhàn)場屠戮生靈,核技術(shù)可以用來制造原子彈毀天滅地也可以用來做核電站造福大眾。理性樂觀派總是相信人類可以通過技術(shù)進(jìn)步創(chuàng)造一個美麗新世界,并克服技術(shù)產(chǎn)生的種種負(fù)面效應(yīng)。
不過,我們需要注意的是,這一次人工智能技術(shù)革命的不同之處在于它將真正重塑人類。以往的任何一場技術(shù)革命只是增強(qiáng)了人類在體力、腦力等方面的專項能力,但這一次AI將直接抵達(dá)人的核心本質(zhì)——那個所謂撐起人尊嚴(yán)和價值的“自由意志”。
大多數(shù)人會將這種宏大議題當(dāng)作杞人憂天的無稽之談,因為“狼來了”的故事人們已經(jīng)聽過多次。很多大人物對于人工智能威脅人類地位的告誡,也有種“口嫌體正直”的意味,無不在自己的領(lǐng)域內(nèi)推動AI技術(shù)的進(jìn)化和使用。
但是作為人類社會基石的“自由意志”本身已經(jīng)從腦神經(jīng)科學(xué)和社會學(xué)上被嚴(yán)重挑戰(zhàn),而人工智能在模擬和指導(dǎo)人類決策的能力又在大幅提升,這樣我們就將接近這個人類命運改變的交匯點:人的自由被還原為一種可計算的生理機(jī)制,AI的計算能力又超過人類的計算能力。
這時,我們也就如同溫水中的青蛙,只能黯然接受“被煮熟”的命運安排。幸而在AI技術(shù)正在日漸暴露出這些無傷大雅的問題之時,我們?nèi)匀灰幸环N對AI的警惕。
那就是AI擁有“自由意志”之時,可以做到價值中立嗎?
技術(shù)的價值中立難成立,AI亦然
在關(guān)于“技術(shù)是否價值中立”的探討中,現(xiàn)在的人們大多會傾向于“技術(shù)中立”的觀點。
我們通常認(rèn)為一項技術(shù)的道德價值在于使用它的人,比如決定一把刀是用來烹飪還是用來行兇的關(guān)鍵是手握這把刀的那個人的想法;而一項技術(shù)的價值大小也不在于它自身而在于使用它的人的用途,比如在電影《上帝也瘋狂》里,非洲原始部落的人們獲得了一個完整的可樂玻璃瓶,這個在現(xiàn)代社會平平無奇的消費品,從一開始被當(dāng)做無所不能的神物到后面變成引發(fā)族群紛爭的魔鬼。這個可樂瓶的價值在土著人手里就經(jīng)歷了天壤之別的變化。
這一假設(shè)的好處就是維護(hù)了人的尊嚴(yán),選擇什么樣的技術(shù)用來做什么樣的事情,都是我們自己的選擇,最終的后果都要由我們來負(fù)責(zé)。
但實際上真的如此嗎?
從最初的人類開始掌握生火和放火這一項最初級技術(shù)的時候,一個部落中的女性就能釋放出超出她體力數(shù)以萬倍的能量,因為一把火就能燒出一大片森林,他們就能收獲這片土地里沒有來得及逃跑的生靈的肉類,后面還可以開墾出一片又一片的農(nóng)田。想想今天的亞馬遜雨林,在全球化的消費貿(mào)易網(wǎng)絡(luò)中,被巴西農(nóng)民幾乎燒毀殆盡來該種糧食作物。火本身是無目的的,但是使用火的人是知曉火的特性和威力,也能控制火的范圍和用途。人類之火,與天然之火的不同之處在于,火本身已經(jīng)包含了人類的意志和目的。
可以想見,人類此后發(fā)明的任何一個工具或技術(shù)都或多或少包含著發(fā)明者本身的目的。一把鋒利的石刀既帶有了切割了功用,也帶有了殺戮的能力,而一把槍發(fā)明出來,自然就有著更高效地殺戮的功效在里面,不管買它的人是用來防身還是用來害人,都是深知這一點的。一項技術(shù)的發(fā)明總是有原因的,而原因背后一定是有目的方向性的,暗含了其主觀價值。
隨著人類的技術(shù)工具越來越復(fù)雜和高級,技術(shù)的目的性對于使用者的影響也就越大。而且我們已經(jīng)越發(fā)習(xí)慣這些技術(shù),就如同我們須臾離不開電池和網(wǎng)絡(luò)一樣,這些技術(shù)已經(jīng)在潛移默化地改變著我們的選擇和判斷。當(dāng)我們以為自己的選擇是自由選擇的時候,其實大多數(shù)都是被工具所訓(xùn)練和改變了的。
最典型的現(xiàn)代技術(shù)莫過于各種互聯(lián)網(wǎng)應(yīng)用和游戲,以短視頻最為典型。依托沉浸式展示、無限下滑換頁和偏好推薦算法,短視頻成為手機(jī)用戶的“殺時間”神器,很多人不知不覺就會在其中花費數(shù)十分鐘時間。如果稍加反省,我們就會發(fā)現(xiàn)這套推薦技術(shù)當(dāng)中所包含的利用人性弱點和上癮機(jī)制來獲取用戶時間的價值傾向。
雖然我們清楚這些公司和他們的聰明無比的工程師未必有操縱人心的惡意,而只是有取得商業(yè)成功的動機(jī),就會不斷地加入操縱人心的技術(shù)。而這一次,工程師們有了一個最好的助手,那就是人工智能。
AI算法的最初目標(biāo)一定是體現(xiàn)了人類的某一目的,比如在對抗學(xué)習(xí)中拿到最高的分?jǐn)?shù)、在圖像識別中得到最高的識別率,在偏好推薦上要不斷滿足用戶喜好,找到盡可能多的相似內(nèi)容。人工智能不僅在某些方面表現(xiàn)不錯,而且還有了趕超人類決策的計算能力。
從“不夠好”的AI到“被用壞”的AI
AI威脅論,很多人已經(jīng)講了很多次,但我們這里并不是再重復(fù)這種大眾所理解的“AI統(tǒng)治人類”“AI取代人類工作”的觀點。因為這種觀點也仿佛再說AI會成為一個獨立于人的新的物種存在,而如今來看,這樣的AI不知要到猴年馬月才實現(xiàn),或者根本無法實現(xiàn)。
我們這里強(qiáng)調(diào)的是,不同于以往任何力學(xué)的、化學(xué)的、生物的技術(shù),僅僅提高人類的局部性的能力,這一次AI技術(shù)這次要替代的是人的感知、判斷和決策能力,是對人的理性行為的一種“復(fù)刻”。
AI技術(shù)的這種“非中立”特性難免會導(dǎo)致以下結(jié)果:
一、AI算法在數(shù)據(jù)訓(xùn)練中由于模型設(shè)計和數(shù)據(jù)樣本不足等問題會難以避免地出現(xiàn)偏見。
比如,2018年的一則報道中,亞馬遜的AI招聘系統(tǒng)被指出系統(tǒng)性地歧視女性,在發(fā)現(xiàn)簡歷中出現(xiàn)“女性”字樣就會降低應(yīng)聘者的分?jǐn)?shù),而且還被發(fā)現(xiàn),標(biāo)注某兩所女子大學(xué)的簡歷也會在排序上被降級。而人工智能的這一權(quán)重決策正是來自于學(xué)習(xí)了亞馬遜此前10年的簡歷數(shù)據(jù)。顯然,這十年中,大部分被錄用的候選人都是男性,人類HR在招募技術(shù)崗位上的偏好也教會了人工智能采用同樣的策略。
而在更常見的人臉識別領(lǐng)域,則出現(xiàn)了明顯的性別和種族歧視的算法偏見。根據(jù)美國NIST(國家標(biāo)準(zhǔn)及技術(shù)研究院)在2019年12月的一份報告,在美國人臉識別系統(tǒng)中,黑人的人臉識別錯誤率是白種人的100倍,與黃種人相比,黑人人臉的識別錯誤率也是前者的10倍,而在執(zhí)法機(jī)關(guān)的人臉圖片庫中,識別錯誤率最高的是美國原住民。另外,女性和老人的臉部也更難以識別。這一研究的數(shù)據(jù)來源是美國簽證申請和過境數(shù)據(jù)庫中的1800萬張人臉照片,并測試了189種人臉識別算法,研究結(jié)果代表了絕大部分商業(yè)應(yīng)用算法的結(jié)果。
今年上映的一部《編碼偏見》的流媒體影片正揭露了這一問題,人工智能正在接管著關(guān)于人們的信息、安全、機(jī)會甚至自由等權(quán)力的時候,如果人們不改正這些算法中存在的偏見和歧視,那么AI技術(shù)會必然創(chuàng)造一個更加糟糕的世界,比如被錯誤識別并逮捕的少數(shù)族裔青年、被算法判斷為能力不足的女性員工,被垃圾信息所包圍的少年。
當(dāng)然,這還只是AI技術(shù)不夠好的一種表現(xiàn)。很多人覺得我們可以不斷調(diào)整算法,增大數(shù)據(jù)樣本就可以解決這些低級錯誤、算法歧視等問題。假如偏見可以消除、算法可以優(yōu)化,我們又將迎來一個怎樣的局面呢?
二、AI技術(shù)很可能會由于數(shù)據(jù)的規(guī)模聚集和技術(shù)競賽的排他性中,掌握在少數(shù)技術(shù)公司和政府手中,幫助擁有技術(shù)特權(quán)的人群和組織獲得難以撼動的權(quán)力和財富,從而鞏固這一趨勢。
我們不能說AI技術(shù)一定會助長極權(quán)和壟斷,但是我們正在看到這樣的苗頭出現(xiàn)。
普通大眾不僅通過在互聯(lián)網(wǎng)上的各種操作交出了自己的習(xí)慣偏好和消費數(shù)據(jù),而且現(xiàn)在還在通過可穿戴設(shè)備等信息來獲取我們的生理指標(biāo)數(shù)據(jù)。如果任何一個AI算法系統(tǒng)能夠同時擁有這兩種數(shù)據(jù),并且對其建立起相對應(yīng)的相關(guān)性,那么,這一系統(tǒng)將真正全面獲得操縱人心的能力。
正由于我們?nèi)祟惖娜魏螞Q策可以轉(zhuǎn)化為各種生理、心理和行為的各種數(shù)據(jù),而我們又想通過AI技術(shù)來洞悉這一切背后的因果鏈條,那么AI將有極大地可能完成人類的這一使命,如果往好處走,AI將代替人類的智力釋放出前所未有的生產(chǎn)力,如果往壞處走,AI技術(shù)也將產(chǎn)生無法想象的破壞力。
比如,在核冬天的威懾之后,AI武器的發(fā)展將使得精準(zhǔn)殺戮成為可能,雖然在一定意義上可以避免大規(guī)模的熱武器沖突,但是每個國家都將在這種無孔不入的AI武器或殺手機(jī)器人的威脅下產(chǎn)生十足的敵意。如果這些AI武器一旦被極端組織掌握,更有可能成為挑起事端的大殺器。再比如更有可能的一個趨勢是,AI算法只是代表了少數(shù)特權(quán)階層的意志,而大部分人淪為供AI進(jìn)化的數(shù)據(jù)源。
盡管來說,AI直接統(tǒng)治人類既無可能,但AI被人類用壞,成為塑造人類不平等的幫兇是極有可能的。
現(xiàn)在,我們更重要的是,放棄對AI技術(shù)客觀中立性的幻想,也要警惕AI算法對于我們決策的強(qiáng)大操縱力,同時又得致力于推動人工智能的普惠,才是接下來要做的事情。
對AI的自由意志保留拒絕的權(quán)利
我們這里只是指明了一個問題:人工智能是存在價值觀的,其價值觀的來源并非來自于突然的“自我覺醒”,而是從人這里繼承了相應(yīng)的價值觀,“復(fù)刻”了人的所謂“自由意志”。
當(dāng)AI算法不夠強(qiáng)大的時候,其可能繼承人類的認(rèn)知錯誤和偏見,但當(dāng)AI算法足夠強(qiáng)大的時候,其也并不會變得“客觀中立”,而是體現(xiàn)了人類工具理性推向極致的價值觀,那就是更集中的權(quán)力、更多的財富、不斷自我強(qiáng)化和升級。
這一價值觀反作用到普通的人類個體身上,可能有兩個結(jié)果,一種是與AI算法協(xié)同進(jìn)化,在智識上甚至生理上不斷升級自己,成為掌控AI的發(fā)展趨向的超級人類;一種是無法理解AI技術(shù)運行邏輯,也沒有辦法參與自主決策的大眾,將自己的生活決策交給算法。
因為人的生物學(xué)的進(jìn)化速度實在難以趕上AI計算能力的增長,人類的知識只能以線性循環(huán)的方式一代又一代傳授,而AI則是以指數(shù)級方式累計增長,這就決定了大多數(shù)人只能交付出自己的決策機(jī)制,而由AI來判斷我們的各種想法的成功概率。
而在今天,這一問題已以種很隱蔽的方式呈現(xiàn)著。正如很多人認(rèn)為自己要聽從自己內(nèi)心的聲音,但是我們卻并不知道這些內(nèi)心的需求哪些是我們的“自由意志”想要的,哪些是被各種價值體系所塑造的。而我們知道AI算法已經(jīng)開始從每一個廣告推薦、每一個內(nèi)容篩選、每一次自拍美顏、每一次你的行為追蹤下,就已經(jīng)開始為你進(jìn)行需求的植入了。
在人工智能狂飆突進(jìn)的這幾年當(dāng)中,我們其實已經(jīng)過分站在“AI將造福人類”的宏大敘事當(dāng)中,畢竟我們對于這一新型技術(shù)產(chǎn)業(yè)寄予了太多的希望。但是我們看到現(xiàn)在針對個人隱私領(lǐng)域上馬的AI應(yīng)用,正在竭盡所能地掌握人們的全方位數(shù)據(jù),但其實我們并未對這一趨勢做好準(zhǔn)備。
最近我們也注意到,由于一些行業(yè)和場景中人臉識別技術(shù)被大量濫用,一些地方的相關(guān)部門開始推出整治規(guī)范,要求拆除這些AI設(shè)備。未來,這場關(guān)于人工智能的應(yīng)用邊界博弈的拉鋸戰(zhàn)還將一直持續(xù)下去。
但未來的長期博弈中,我們哪怕犧牲一點便利性,也要在讓度自己的選擇權(quán),交給人工智能來處理的時候,保持足夠的冷靜,同時對AI有擁有“Say No”的力量。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準(zhǔn)AI機(jī)器人
- 微信零錢通新政策:銀行卡轉(zhuǎn)入資金提現(xiàn)免手續(xù)費引熱議
- 消息稱塔塔集團(tuán)將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領(lǐng)先技術(shù)與深度整合是關(guān)鍵
- 英偉達(dá)新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關(guān)注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯(lián)系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關(guān)注
- 無人機(jī)“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關(guān)注
- 賽力斯發(fā)布聲明:未與任何伙伴聯(lián)合開展人形機(jī)器人合作
- 賽力斯觸及漲停,汽車整車股盤初強(qiáng)勢拉升
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。