精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    劉興亮丨GPT-4火爆,遍地開(kāi)花的人工智能會(huì)失控嗎

    文丨劉興亮

    編 輯丨柯 銳

    校 對(duì)丨王 心

    實(shí)習(xí)生 | 韓朝璐

    OpenAI的GPT-4、微軟的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,國(guó)內(nèi)外一系列生成式人工智能應(yīng)用發(fā)布,引發(fā)了廣泛的關(guān)注。

    除了對(duì)技術(shù)進(jìn)步感到興奮,有風(fēng)險(xiǎn)意識(shí)的人也會(huì)產(chǎn)生這樣的擔(dān)憂:人工智能會(huì)失控嗎?風(fēng)險(xiǎn)如何防范管控?

    美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI公司的首席執(zhí)行官山姆·阿爾特曼(Sam Altman)近日表示,他對(duì)人工智能(AI)技術(shù)的潛力感到興奮,但也對(duì)一些潛在的濫用行為「有點(diǎn)害怕」。

    OpenAI是近期大火的AI聊天機(jī)器人ChatGPT的開(kāi)發(fā)商,該公司由埃隆·馬斯克與阿爾特曼等人共同創(chuàng)立。

    上月,OpenAI創(chuàng)始人之一的埃隆·馬斯克表示,「它有巨大的前景也有巨大的能力,但隨之而來(lái)的危險(xiǎn)也是巨大的?!?/p>

    01

    人工智能還沒(méi)到「失控」水平

    3月15日,OpenAI發(fā)布的GPT-4安全文件中提到, 「一些特別令人擔(dān)憂的是制定長(zhǎng)期計(jì)劃并采取行動(dòng)、積累權(quán)力和資源(‘尋求權(quán)力’)以及表現(xiàn)出越來(lái)越‘自主’的行為的能力?!?/p>

    據(jù)媒體報(bào)道,近年來(lái),有人工智能研究人員提出警告,足夠強(qiáng)大的AI模型如果沒(méi)有得到適當(dāng)控制,可能會(huì)對(duì)人類(lèi)構(gòu)成生存威脅。尤其是「人工智能接管(AI takeover)」,這是人工智能超越人類(lèi)智能成為地球主導(dǎo)力量的假想未來(lái)。在這種情況下,人工智能可能會(huì)導(dǎo)致災(zāi)難性后果。

    隨著人工智能的高速發(fā)展,其可能帶來(lái)的風(fēng)險(xiǎn)也引起了人們的高度關(guān)注。這就帶來(lái)了一個(gè)擔(dān)心,遍地開(kāi)花的人工智能會(huì)失控嗎?

    首先,這種失控現(xiàn)在來(lái)看還不致于發(fā)生,因?yàn)槟壳暗娜斯ぶ悄苓€沒(méi)發(fā)展到這個(gè)水平。

    失控的前提是AI要具有自主性,就是在很大程度上獨(dú)立完成任務(wù)。那么,在AI系統(tǒng)沒(méi)有足夠理解人類(lèi)價(jià)值觀和道德準(zhǔn)則的情況下,這種自主性就可能導(dǎo)致失控的風(fēng)險(xiǎn)。

    但目前的生成式AI本質(zhì)上還是人類(lèi)的工具,給它一個(gè)指令,它來(lái)生成相應(yīng)的文字、圖片等內(nèi)容,所以人們暫時(shí)還不需要有這方面的擔(dān)心。

    當(dāng)然,隨著技術(shù)的不斷發(fā)展,未來(lái)這個(gè)潛在風(fēng)險(xiǎn)會(huì)成為我們重點(diǎn)去關(guān)注的問(wèn)題。

    02

    更有可能失控的是用技術(shù)來(lái)為非作歹的人

    比起失控的技術(shù),更有可能失控的是用技術(shù)來(lái)為非作歹的「人」。比如,惡意使用者可能會(huì)利用ChatGPT來(lái)制造虛假信息、實(shí)施欺詐活動(dòng)或進(jìn)行其他不道德行為。

    這很像人們擔(dān)心會(huì)被AI替代導(dǎo)致失業(yè)一樣,這其實(shí)是關(guān)注錯(cuò)了重點(diǎn)。因?yàn)槠鋵?shí)人不會(huì)被AI淘汰(至少目前不會(huì)),而是會(huì)被掌握AI工具的「人」淘汰。

    因此,這個(gè)層面上的風(fēng)險(xiǎn),關(guān)鍵因素都在于人,而不是技術(shù)本身。因?yàn)榧幢銢](méi)有AI,壞人也會(huì)用其他手段做壞事,善于學(xué)習(xí)的人也會(huì)運(yùn)用其他工具提升自己的競(jìng)爭(zhēng)力。

    雖然AI目前不至于失控,但還是有一些風(fēng)險(xiǎn)。

    一方面是它們會(huì)一本正經(jīng)地胡說(shuō)八道,如果用戶(hù)把它所說(shuō)的都認(rèn)定為事實(shí),那就會(huì)被誤導(dǎo)。在這方面需要媒體多做普及,讓更多人認(rèn)識(shí)到ChatGPT等AI大模型并非無(wú)所不知。

    另一方面,有可能出現(xiàn)個(gè)人隱私或商業(yè)機(jī)密泄露的情況。比如,用戶(hù)在與ChatGPT等聊天機(jī)器人交流時(shí),無(wú)意識(shí)地提供了敏感信息,如個(gè)人身份信息、聯(lián)系方式或公司內(nèi)部信息等。一旦這些信息被記錄或存儲(chǔ),就可能導(dǎo)致隱私或商業(yè)機(jī)密的泄露。雖然AI服務(wù)提供商會(huì)采取措施保護(hù)用戶(hù)數(shù)據(jù),但數(shù)據(jù)存儲(chǔ)和傳輸過(guò)程中仍然可能存在安全風(fēng)險(xiǎn)。

    此外,由于訓(xùn)練數(shù)據(jù)集可能存在偏見(jiàn),聊天機(jī)器人的回答會(huì)反映這些偏見(jiàn),從而導(dǎo)致歧視性或不公平的結(jié)果。也可能因無(wú)法準(zhǔn)確判斷道德和倫理問(wèn)題,有時(shí)產(chǎn)生不道德或具爭(zhēng)議的建議。

    03

    從三個(gè)方向規(guī)避人工智能風(fēng)險(xiǎn)

    那人類(lèi)該如何規(guī)避這些風(fēng)險(xiǎn)呢?可以從三個(gè)方向進(jìn)行。

    第一個(gè)方向就是提高公眾的認(rèn)知。一方面要提高對(duì)AI技術(shù)的了解,避免被不恰當(dāng)?shù)男畔⑺`導(dǎo);另一方面,提高數(shù)據(jù)安全意識(shí),避免泄露個(gè)人隱私或商業(yè)機(jī)密等敏感信息。新聞媒體在其中可發(fā)揮重要作用。

    第二個(gè)方向是實(shí)施更全面的人工智能監(jiān)管。首先,需要制定明確的法規(guī)和指導(dǎo)方針,以規(guī)范AI的研發(fā)、部署和使用。其次,政府、企業(yè)、研究機(jī)構(gòu)和民間組織需要加強(qiáng)合作,共同制定和執(zhí)行AI監(jiān)管政策,這有助于確保政策的全面性和有效性。另外,由于 AI技術(shù)不受?chē)?guó)界限制,應(yīng)積極參與全球性的AI治理倡議,以確保全球范圍內(nèi)的政策協(xié)調(diào)和一致性。

    第三個(gè)方向就是加強(qiáng)對(duì)于AI安全的研究。政府、企業(yè)和研究機(jī)構(gòu)應(yīng)增加對(duì)AI安全研究的投資,為相關(guān)項(xiàng)目提供充足的資金和資源。此外要重視AI安全領(lǐng)域的人才培養(yǎng),鼓勵(lì)學(xué)生和研究人員從事相關(guān)研究,可以通過(guò)提供獎(jiǎng)學(xué)金、實(shí)習(xí)機(jī)會(huì)和專(zhuān)門(mén)的課程來(lái)實(shí)現(xiàn)。同時(shí)進(jìn)行跨學(xué)科合作,鼓勵(lì)計(jì)算機(jī)科學(xué)家、安全專(zhuān)家、倫理學(xué)家、法學(xué)家等領(lǐng)域的專(zhuān)家進(jìn)行跨學(xué)科合作,共同應(yīng)對(duì)AI安全所帶來(lái)的挑戰(zhàn)。

    OpenAI在創(chuàng)立之初的核心宗旨就是——實(shí)現(xiàn)安全的通用人工智能,使其有益于人類(lèi)。

    「安全」這兩個(gè)字對(duì)人工智能來(lái)說(shuō)至關(guān)重要。無(wú)論是作為開(kāi)發(fā)者、用戶(hù)還是監(jiān)管者,人們都應(yīng)當(dāng)時(shí)刻關(guān)注AI技術(shù)的安全性,確保人工智能不會(huì)被濫用。只有這樣,我們才能充分發(fā)揮人工智能的潛力,為人類(lèi)社會(huì)帶來(lái)更多便利和進(jìn)步。

    免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無(wú)關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

    2023-03-24
    劉興亮丨GPT-4火爆,遍地開(kāi)花的人工智能會(huì)失控嗎
    劉興亮丨GPT-4火爆,遍地開(kāi)花的人工智能會(huì)失控嗎

    長(zhǎng)按掃碼 閱讀全文