5月24日消息,據(jù)國外媒體報道,在今年一月份,來自加州大學伯克利分校計算機科學家Stuart Russell起草了致全體人工智能研究員的公開信,并第一個在上面簽名。Stuart呼吁研究者不能只注重讓人工智能變得更強大,同樣要保證其健康性和有益性:AI必須遵從人類的意愿,不能胡作非為。
公開信發(fā)表后,已有數(shù)千人在上面簽名。其中不乏來自谷歌、Facebook、微軟等頂尖人工智能研究機構的科學家。同時來自全世界的物理學家、哲學家也在上面留下了自己的名字。
Stuart是加州大學伯克利分校的智能系統(tǒng)中心的創(chuàng)始人,他一直在關注機器自主思考可能給人類帶來的危害。他發(fā)表了超過200篇相關文章,還是業(yè)內標準教科書《人工智能:現(xiàn)代方法》的合作作者之一。但當下迅速發(fā)展的人工智能技術給Stuart帶來了長遠的擔憂,而驚人的發(fā)展速度無疑加深了這種憂慮。Stuart表示目前的AI技術已經有了長足的進步,神經元算法帶來的改善不容小視。這些智能算法被應用在人臉識別系統(tǒng)、智能手機助理系統(tǒng)以及谷歌自動駕駛汽車中。甚至,《自然》雜志的一篇報道稱一個模擬神經元人工智能網絡在一款Atari公司的游戲中的表現(xiàn)已經超過了人類,而這個系統(tǒng)的輸入僅僅是電腦屏幕上顯示的內容和一個“得到盡可能高的分數(shù)”的目標。沒有任何預設的程序,這個智能網絡懂得分辨屏幕上的外星人、子彈,會在合適的時機進行左移、右移。
《QUANTA》雜志采訪了Stuart,詢問了他對當前人工智能發(fā)展的幾點看法。讓我們來看看該領域的大師如何評價這一革命性技術吧。
QUANTA:你為什么堅持人工智能研究必須以可證實對人類有益為前提?
Stuart:我認為這是一個錯誤的問題,因為“人類價值”不能被“證實”.當然,人類價值本身也沒有準確的定義,誰又知道人類為什么存在呢,可能這永遠都是個迷。但考慮到我們人類的行為的意義,你會希望機器人至少能體會到其中的大部分精髓。人工智能可能不能完全理解我們的所作所為,但它們至少要和我們站在同一戰(zhàn)線上,有著共同的基本原則。換句話說,它們不能成為我們的絆腳石甚至傷害我們。
QUANTA:你打算怎么實現(xiàn)這一點?
Stuart:我現(xiàn)在正在這方面努力。目前我覺得一種名為“逆強化學習”的技術可以派上用場。平常的學習原理很簡單,基于你的表現(xiàn)好壞,你會得到獎勵或者懲罰,你的目標也很明確,就是想方設法獲得盡可能多的獎勵。Atari的游戲就是一個這樣的典型的系統(tǒng)。逆向學習則是完全相反的過程,你首先得到結果,然后你去思考什么樣的行為最可能帶來這樣的結果。比如,你的機器人看到你早上艱難的從床上爬起來,沖了一杯咖啡,在一個嗡嗡作響的箱子里加熱了點煎餅,而且在吃這些東西時你臉上浮現(xiàn)出了愉快的深情,那么它的人工智能就會告訴它:人早上喝咖啡是好的。
逆強化學習有著海量的資料可以使用,無論是書籍、電影還是網絡,上面有著成千上萬的人類活動記錄,智能體可以從中感受到人類追求的基本價值和遵循的基本原則。
QUANTA:你的研究生涯主要關注了理解人工智能是什么,并認為這是實現(xiàn)人工智能的前提。那么你目前有什么收獲呢?
Stuart:在八十年代的研究中我開始思考理性決策的問題,后來我發(fā)現(xiàn)這是一個不可能完成的任務。如果你是理性的,你會判斷自己目前的狀況、可選擇做法、每種做法帶來的結果,但是又有哪一種做法是百分之百確保得到想要的結果的呢?世界上的事情變化多的讓人眼花繚亂,沒有那么多事是確定的。理性行為的定義就要求你的能力蓋過整個未來和宇宙,換句話說,它在計算上是不可能的。所以我換了思路:那么人類是怎樣做決定的呢?
QUANTA:人類怎么做的?
Stuart:人類的大腦是一部效率驚人的概率運算機器。它的訣竅不是準確掌握每一條信息,而是對未來有一個大概的預測,并推測最可能帶來好結果的做法。拿下棋來說,如果是理性決策的人,他就只會走那些可以將軍的棋子?,F(xiàn)實中沒有人這么下棋,人們不會考慮十幾步之后的事情,他們會考慮幾個可能的走法,看哪一種最可能帶來優(yōu)勢。人一生大約會做20萬億的動作,做一次演講會有13億個動作,理性決策要求你預測13億個動作后的準確狀況,這太瘋狂了。我們從不會想“我要先邁左腳再動右腳,再打開門……”而是想“我該去做演講了”.
QUANTA:你可以證明人工智能系統(tǒng)不會重寫自己的軟件,覆蓋人類預設的目標嗎?
Stuart:計算機程序有著許多不確定性。阿蘭圖靈曾指出一個計算機程序不可能判斷另一個程序是陷入了無限循環(huán)還是最終會產生輸出。因此,如果你有一個可以重寫自身的程序,你就有了一個矛盾,你不能證明這個新程序是否具有某些性質,這個程序也不知道自己寫了一個什么。所以,問題不是“AI是否會重寫自己”而是“AI寫出的程序會對我們有怎樣的影響”.我們目前對人工智能的設計能力所知甚少。
QUANTA:目前有什么很有前景的研究領域嗎?
Stuart:最近出現(xiàn)了一種叫做“網絡現(xiàn)實系統(tǒng)”的研究領域,它們的研究內容是計算機與現(xiàn)實世界相聯(lián),讓電腦通過網絡控制機器手臂等等。許多電影中出現(xiàn)了人工智能掌控交通的劇情,也是該領域的研究內容。另外,空中交通管制也是其應用的一種。
- 國內首個省級旅游AI智能體“AI游貴州”發(fā)布,馬蜂窩助力貴州開啟智慧文旅新篇章
- 2024年終盤點 | 華為以“技術為根、實戰(zhàn)為魂”,助力高校,培養(yǎng)千萬數(shù)智人才
- 余承東2025年全員信:通過海量鴻蒙設備,拉動中國電子工業(yè)崛起
- 速通 NVIDIA 專業(yè)顯卡:專業(yè)顯卡有哪些優(yōu)勢?適合什么場景?
- 馬蜂窩跨年出行預測:儀式感必不可少,“跨年煙花”帶動目的地熱度上漲
- 30億元!比亞迪捐資興教推動中國科教進步
- 閉著眼睛寫代碼是一種什么樣的體驗?
- 2024世界顯示產業(yè)大會啟幕,4K花園自研“滿天星”獲十大創(chuàng)新應用
- 哈佛商學院:2024年全球96%代碼庫包含開源組件 Rust采用率增長500%
- 硅谷1/10程序員在摸魚?基本不干活卻能拿20-30萬美元年薪
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。