9月20日消息,據(jù)外媒報(bào)道,美國(guó)人工智能研究公司OpenAI宣布推出“紅隊(duì)網(wǎng)絡(luò)”(Red Teaming Network),并邀請(qǐng)各領(lǐng)域?qū)<壹尤肫洹凹t隊(duì)網(wǎng)絡(luò)”,以提高其人工智能(AI)模型的安全性。
OpenAI的這一舉措旨在深化和擴(kuò)大其與外部專家的合作,以確保其人工智能模型的可靠性和安全性。簽約的專家將通過(guò)協(xié)助評(píng)估和減輕模型風(fēng)險(xiǎn),在增強(qiáng)OpenAI人工智能系統(tǒng)的穩(wěn)健性方面發(fā)揮關(guān)鍵作用。
盡管OpenAI之前通過(guò)漏洞賞金計(jì)劃和研究人員訪問(wèn)計(jì)劃與外部專家合作,但新推出的“紅隊(duì)網(wǎng)絡(luò)”將這些努力正式化。
OpenAI表示,“紅隊(duì)網(wǎng)絡(luò)”是一個(gè)由經(jīng)驗(yàn)豐富且值得信賴的專家組成的社區(qū),可以幫助公司更廣泛地進(jìn)行風(fēng)險(xiǎn)評(píng)估,而不是在主要模型部署之前進(jìn)行一次性參與和選擇過(guò)程。
據(jù)報(bào)道,“紅隊(duì)”在識(shí)別人工智能系統(tǒng)中的偏見和評(píng)估安全過(guò)濾器方面發(fā)揮著至關(guān)重要的作用,已經(jīng)成為人工智能模型開發(fā)過(guò)程中的關(guān)鍵一步,尤其是在生成式技術(shù)得到更廣泛采用的情況下。
OpenAI向不同領(lǐng)域的專家發(fā)出邀請(qǐng),包括具有語(yǔ)言學(xué)、生物識(shí)別、金融和醫(yī)療保健背景的專家。該公司強(qiáng)調(diào)了各種專業(yè)知識(shí)對(duì)人工智能評(píng)估的重要性,包括但不限于認(rèn)知科學(xué)、法律、網(wǎng)絡(luò)安全、經(jīng)濟(jì)學(xué)和醫(yī)療保健等領(lǐng)域。(小狐貍)
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )