牛津大學的研究人員與國際專家合作,在《自然·機器智能》上發(fā)表了一項新研究,討論圍繞大語言模型(LLM)產生的輸出的責任歸屬的復雜倫理問題。該研究表明,像ChatGPT這樣的LLM提出了關于有用文本生成的信譽和權利歸屬的關鍵問題,這與傳統(tǒng)的AI責任辯論不同,后者主要關注有害后果。
聯(lián)合第一作者Sebastian Porsdam Mann和Brian D. Earp說,“像ChatGPT這樣的LLM帶來了對責任概念更新的緊迫需求。”
根據(jù)聯(lián)合作者Sven Nyholm和John Danaher的說法,該研究的一個關鍵發(fā)現(xiàn)是:“雖然這些技術的人類用戶無法完全聲稱LLM產生的積極結果屬于自己的功勞,但似乎仍然適當?shù)貙⑵湟暈橛泻τ猛镜呢熑?,如產生錯誤信息或疏忽地檢查生成文本的準確性?!?Nyholm和Danaher在前人的工作基礎上稱此為“成就差距”:“正在完成有用的工作,但人們無法像以前那樣從中獲得滿足感或認可?!?
論文的高級作者Julian Savulescu補充說,“我們需要有關作者資格、披露要求、教育用途和知識產權的指導方針,參考現(xiàn)有的規(guī)范性文獻和類似的相關辯論,例如人類增強辯論?!盨avulescu繼續(xù)說,要求透明度的規(guī)范尤其重要,“以跟蹤責任和正確地贊揚和責備?!?/p>
該研究由法律、生物倫理學、機器學習和相關領域的跨學科專家團隊共同撰寫,深入探討LLM在教育、學術出版、知識產權和誤信息和虛假信息生成方面的潛在影響。
教育和出版業(yè)尤其需要迅速采取LLM使用和責任方面的指導方針行動。聯(lián)合作者John McMillan和Daniel Rodger表示:“我們建議文章提交包括關于LLM使用情況的聲明以及相關補充信息。LLM的披露應類似于人類貢獻者,承認重大貢獻?!?/p>
該文指出,LLM在教育方面可能有幫助,但警告說它們容易出錯,過度使用可能會影響批判性思維技能。作者寫道,機構應考慮調整評估方式,重新思考教學法,并更新學術不端行為指導,以有效處理LLM的使用。
生成文本的權利,如知識產權和人權,是LLM使用影響需要迅速解決的另一個領域,聯(lián)合作者Monika Plozza指出。“知識產權和人權帶來挑戰(zhàn),因為它們依賴于以人為主設定的勞動和創(chuàng)造力概念。我們需要開發(fā)或調整如‘貢獻者’的框架來處理這種高速發(fā)展的技術,同時保護創(chuàng)作者和用戶的權利?!?/p>
并非所有LLM的可預見用途都是善意的。聯(lián)合作者Julian Koplin警告,“LLM可以用于生成有害內容,包括大規(guī)模的誤信息和虛假信息。這就是為什么我們需要讓人們對使用的LLM生成文本的準確性負責,以及努力教育用戶和改進內容審核政策來減輕風險?!?/p>
為了應對與LLM相關的這的風險和其他風險,聯(lián)合作者Nikolaj M?ller和Peter Treit表示,LLM開發(fā)者可以效仿生物醫(yī)學領域的自我監(jiān)管?!敖⒑蛻玫男湃螌LM的進一步發(fā)展至關重要。通過促進透明度和開展公開討論,LLM開發(fā)者可以展示其對負責任和道義實踐的承諾。”
本文譯自 techxplore,由 bali 編輯發(fā)布。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )