精品国产亚洲一区二区三区|亚洲国产精彩中文乱码AV|久久久久亚洲AV综合波多野结衣|漂亮少妇各种调教玩弄在线

<blockquote id="ixlwe"><option id="ixlwe"></option></blockquote>
  • <span id="ixlwe"></span>

  • <abbr id="ixlwe"></abbr>

    10位科技企業(yè)女性高管對AI威脅論的探討

    原標(biāo)題:10位科技企業(yè)女性高管對AI威脅論的探討

    編譯:李珠江

    編輯:瓊涼

    審校:周鶴翔

    來源:GPLP犀牛財經(jīng)(ID:gplpcn)

    女性從事科技行業(yè)的機(jī)會越來越多,但仍有很大的提升空間。目前,約有四分之一的科技工作是由女性擔(dān)任的。為了突出該領(lǐng)域那些有成就的女性,《權(quán)威雜志》(Authority Magazine)采訪了多位AI領(lǐng)域的女性領(lǐng)導(dǎo)人。

    每個人都被問到了以下問題:“眾所周知,科學(xué)家們一直在爭論,先進(jìn)的AI在未來是否會對人類構(gòu)成威脅。這場辯論已經(jīng)逐漸演化為埃隆·馬斯克(Elon Musk)和馬克·扎克伯格(Mark Zuckerberg)之間的辯論。那么,您的立場是什么?怎樣才能防止這種擔(dān)憂發(fā)生?我們該怎么做才能讓公眾相信,AI沒有什么可擔(dān)心的呢?”

    下面是10位AI領(lǐng)域女性領(lǐng)導(dǎo)人的回答。

    AI具有雙面性

    Anna Bethke(英特爾AI負(fù)責(zé)人)

    我認(rèn)為,人們使用AI的方式比AI本身對人類的危害要更大。

    AI的使用具有雙面性性,就像錘子或者其他任何工具一樣,既可以用來做善事,比如做鳥籠;也可以用來做壞事,比如打碎花瓶。雖然AI有可能學(xué)習(xí)提高到具有自我意識和甚至產(chǎn)生惡意,但這其實(shí)極難做到。

    有些人已經(jīng)能夠通過制造帶有惡意的AI,進(jìn)行服務(wù)類攻擊、在社交媒體的騷擾等等。雖然我們不能簡單地排除具有自我意識的惡意AI存在的可能性,甚至被忽視,但是我們應(yīng)該更多的就創(chuàng)建惡意AI進(jìn)行討論。

    隨著技術(shù)的發(fā)展和應(yīng)用,披露該技術(shù)發(fā)展的透明度越高,每個人就能越了解情況,就能更多的提出質(zhì)疑。從系統(tǒng)的設(shè)計(jì),測試和實(shí)現(xiàn),到立即糾正任何不利行為,或根據(jù)需要進(jìn)行批量升級,在一定程度上都要保持人類的判斷力,這一點(diǎn)很重要。

    科技是我們的合作伙伴

    Carolina Barcenas(Visa高級副總裁)

    我認(rèn)為,科技是我們的合作伙伴。

    科技的確會帶來一些變化,但是我相信社會的適應(yīng)能力。盡管一些工作崗位可能會消失,但新的工作崗位將會被創(chuàng)造出來。當(dāng)前是技術(shù)創(chuàng)新的時代。我相信,正確地使用AI將使我們的生活受益無窮,而我們現(xiàn)在正處于這一重大變革的開端。但是,我也認(rèn)識到,技術(shù)一旦落入心懷不軌的人手中,可能是毀滅性的,這就是為什么要圍繞AI的道德使用去進(jìn)行有效監(jiān)管,這是極其重要的一點(diǎn)。目前,數(shù)據(jù)的使用和隱私保護(hù)在歐洲已經(jīng)受到了重視,其他國家也緊隨其后,但我們?nèi)蕴幱谄鸩降拿妊侩A段。我認(rèn)為最重要的是,我們要讓人們知道什么是真正的AI,以及我們需要面對的挑戰(zhàn)是什么。

    AI只是我們開發(fā)的一種工具

    Tatiana Mejia(Adobe的AI主管)

    AI只是我們開發(fā)的一種工具,作為一個社區(qū),我們有責(zé)任告訴大眾,AI是如何創(chuàng)建的,以及我們該如何使用。技術(shù)本身并無好壞。

    在Adobe,我們談?wù)揂I服務(wù)于創(chuàng)作者并尊重消費(fèi)者。我們正在仔細(xì)研究相關(guān)問題,并制定和實(shí)施有關(guān)數(shù)據(jù)隱私、數(shù)據(jù)治理、數(shù)據(jù)多樣性等方面的流程和準(zhǔn)則等。

    繼續(xù)推進(jìn) 同時落實(shí)安全措施

    Marie Hagman(Zillow的人工智能總監(jiān))

    縱觀歷史,人們一直在使用新技術(shù)來完成一些令人驚訝的事情,并且給他人帶來痛苦。例如,核能和原子彈。我是一個樂觀主義者,我認(rèn)為AI利大于弊。我們需要繼續(xù)推進(jìn),同時落實(shí)安全措施,更快地制定和更新公共政策以幫助減輕風(fēng)險。我覺得我們不能也不應(yīng)該向人們保證AI沒有什么可擔(dān)心的。人們應(yīng)該了解到它的風(fēng)險并提高警覺。我們已經(jīng)建立了保護(hù)社會免受不良行為影響的系統(tǒng),包括執(zhí)法,司法體系和公共政策。除此之外,我們應(yīng)該讓這些領(lǐng)域的領(lǐng)導(dǎo)人了解情況,并優(yōu)先考慮防范AI可能造成的威脅。

    當(dāng)今AI發(fā)展還不成熟

    Madelaine Daianu, Ph.D.(Intuit數(shù)據(jù)科學(xué)高級經(jīng)理)

    我認(rèn)為,隨著AI技術(shù)的進(jìn)步,這些辯論只會越來越激烈。

    有人認(rèn)為這些爭論為時過早,主要是因?yàn)楫?dāng)今的AI發(fā)展還不成熟。我們尚未發(fā)現(xiàn)創(chuàng)建超級智能的必要條件,因此,我們尚未掌握正確的信息,來確定如何更好地減輕可能存在的危害。

    機(jī)器人不會明天就來占領(lǐng)這個世界

    Doris Yang (BlackBerry Cylance高級總監(jiān))

    AI的好壞,取決于人類如何定義問題和答案的邊界,以及處理這些問題所需的數(shù)據(jù)。也就是說,不管制造出一個有意識的機(jī)器人需要花費(fèi)多長時間,談?wù)揂I使用的邊界以及人工智能的應(yīng)用才是至關(guān)重要的。即使到了今天,我們身邊仍然存在著隱私和透明性的問題。

    以AI驅(qū)動的解決方案有很多好處,我們應(yīng)該積極地考慮問題,以便我們可以繼續(xù)從中受益,而不會放棄更多的自由。我們現(xiàn)在需要為我們的底層設(shè)施打下基礎(chǔ),并保持警惕,以防技術(shù)和其他實(shí)體侵犯它們。

    探索如何更好的利用AI

    Marina Arnaout(Microsoft經(jīng)理)

    歷史表明,每當(dāng)一項(xiàng)偉大的發(fā)明落入心懷不軌之人手中時,邪惡就會占上風(fēng)。當(dāng)前,我們正處于AI發(fā)展的早期階段,正在探索如何更好的利用AI,激發(fā)潛能,這可以幫助我們預(yù)防自然災(zāi)害,或者為盲人提供更多幫助,當(dāng)然,還有更多形式的商業(yè)智能。

    AI具有賦予社區(qū)和企業(yè)權(quán)力的潛力,并具有許多好處。但是,毫無疑問,先進(jìn)的AI技術(shù)同時也會帶來各種不利影響。它可能會以人類無法跟上的速度大幅度改變勞動力結(jié)構(gòu),從而產(chǎn)生重大的經(jīng)濟(jì)影響,并帶來許多道德挑戰(zhàn)。更直接地說,AI可以被設(shè)定為破壞程序,也可以做一些有益的事情,這是一個全球性的問題。

    為AI設(shè)定條件和界限

    Elena Fersman(愛立信AI研究負(fù)責(zé)人)

    每一項(xiàng)新技術(shù)都會帶來威脅。盡管AI是特殊的,但由于它是自我發(fā)展的,我們?nèi)詾槠浒l(fā)展設(shè)定條件或界限。這些條件需要掌握在人類手中。我們需要承擔(dān)責(zé)任,規(guī)定“游戲規(guī)則”,并規(guī)定這些算法永遠(yuǎn)不能打破規(guī)則。這些規(guī)則與人類必須遵守的法律,法規(guī),道德框架和社會規(guī)范沒有什么不同。為避免此類擔(dān)憂發(fā)生,我們應(yīng)該以AI系統(tǒng)所理解的語言來實(shí)施“生存規(guī)則”。也就是說,我們需要將這些規(guī)則數(shù)字化,確??蚣芎蛙浖軜?gòu)具有靈活性并允許修改,并且算法可以保證它們遵守這些框架。

    成立一個組織:規(guī)范AI產(chǎn)業(yè)和研究

    韓超(Lucidworks副總裁)

    AI可以應(yīng)用于許多造福社會的領(lǐng)域,例如醫(yī)療保健和自動駕駛汽車。然而,在武器開發(fā)或基因編輯領(lǐng)域,危險團(tuán)體對于AI的濫用是令人擔(dān)憂的。當(dāng)前,AI不具備自我學(xué)習(xí)的能力,無法故意傷害他人,也無法通過互聯(lián)網(wǎng)相互連接進(jìn)行大規(guī)模的破壞。但是,如果未來控制不當(dāng),這些行為都是可能發(fā)生的。當(dāng)前沒有任何集中化的組織來規(guī)范AI產(chǎn)業(yè)和研究。我們高度依賴大型IT公司的良好愿景,并遵循標(biāo)準(zhǔn)的模型構(gòu)建流程,以防止AI的偏見或?yàn)E用。我希望這樣的組織能盡快成立,以獲得更多公眾的信任。

    不應(yīng)該試圖去阻止人們的擔(dān)憂

    Trisala Chandaria(Temboo首席執(zhí)行官)

    所有新的技術(shù)給人類帶來機(jī)遇的同時,也帶來了危機(jī),這就是科技的本質(zhì)。

    想想在汽車剛出現(xiàn)的時候,我們必須建立基礎(chǔ)設(shè)施,采取安全措施和其他技術(shù)來適應(yīng)他們。諸如道路,駕照,安全帶和安全氣囊等東西,都是為了確保公眾能夠安全有效地使用汽車。同樣,在構(gòu)建AI技術(shù)時,我們需要考慮安全性,基礎(chǔ)設(shè)施,法律等。只要考慮到這些因素,我們就可以永遠(yuǎn)使用AI。

    然而,這些措施仍在制定過程中,目前需要優(yōu)先考慮。我們不應(yīng)該試圖去阻止人們對AI的擔(dān)憂。人們應(yīng)該問問他們的數(shù)據(jù)是如何被使用的,哪些技術(shù)影響了他們的生活,以及AI是如何影響社會。擔(dān)憂和恐懼是有區(qū)別的。我們不想嚇唬人們,讓他們遠(yuǎn)離新技術(shù),但我們希望確保人們在影響他們?nèi)粘I畹募夹g(shù)上有所選擇。這取決于這個領(lǐng)域的領(lǐng)導(dǎo)者,確保公眾有足夠的能力和信息來做出選擇。

    極客網(wǎng)企業(yè)會員

    免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    2019-11-01
    10位科技企業(yè)女性高管對AI威脅論的探討
    目前,數(shù)據(jù)的使用和隱私保護(hù)在歐洲已經(jīng)受到了重視,其他國家也緊隨其后,但我們?nèi)蕴幱谄鸩降拿妊侩A段。我認(rèn)為最重要的是,我們要讓人們知道什么是真正的AI,以及我們需要面對的挑戰(zhàn)是什么。

    長按掃碼 閱讀全文