大型語言模型(如OpenAI的ChatGPT)徹底改變了人工智能與人類互動(dòng)的方式,生成的文本常常與人類寫作難以區(qū)分。盡管這些模型功能強(qiáng)大,但它們生成的內(nèi)容中仍存在許多不準(zhǔn)確之處,通常被稱為“AI幻覺”。然而,格拉斯哥大學(xué)的Michael Townsen Hicks、James Humphries和Joe Slater在《倫理與信息技術(shù)》期刊發(fā)表的論文中指出,這些不準(zhǔn)確的內(nèi)容更應(yīng)被理解為“胡說八道”。
大型語言模型(LLMs)是設(shè)計(jì)用來生成類似人類文本的復(fù)雜計(jì)算機(jī)程序。它們通過分析大量的書面材料,并使用統(tǒng)計(jì)技術(shù)來預(yù)測特定詞語在序列中出現(xiàn)的可能性,從而生成連貫且符合上下文的響應(yīng)。
與人類大腦有多種目標(biāo)和行為不同,LLMs的唯一目標(biāo)是生成與人類語言相似的文本。這意味著它們的主要功能是復(fù)制人類言語和寫作的模式和結(jié)構(gòu),而不是理解或傳達(dá)真實(shí)信息。
“AI幻覺”一詞用來描述像ChatGPT這樣的大型語言模型生成不準(zhǔn)確或完全虛構(gòu)的信息。這一術(shù)語暗示AI在經(jīng)歷感知錯(cuò)誤,類似于人類看到不存在的東西。然而,Hicks及其同事認(rèn)為這一比喻是誤導(dǎo)性的,因?yàn)樗凳続I具有感知和傳達(dá)真實(shí)信息的意圖,而實(shí)際上并沒有。
要更好地理解這些不準(zhǔn)確信息為何更應(yīng)被稱為“胡說八道”,有必要了解哲學(xué)家Harry Frankfurt對“胡說八道”概念的定義。在他的經(jīng)典著作中,F(xiàn)rankfurt區(qū)分了“胡說八道”和“撒謊”。撒謊者知道真相但故意說假話,而胡說八道者對真相漠不關(guān)心。他們關(guān)心的不是所說內(nèi)容的真?zhèn)危鞘欠衲苓_(dá)到其目的,通常是為了給人留下深刻印象或說服他人。
Frankfurt的概念強(qiáng)調(diào)了胡說八道者對真相的漠視。胡說八道者不關(guān)心其陳述的準(zhǔn)確性,只在乎這些陳述是否看起來可信或者符合特定的敘述。
研究者們認(rèn)為,像ChatGPT這樣的LLMs的輸出更符合Frankfurt對“胡說八道”的定義,而不是“幻覺”的概念。這些模型并沒有對真?zhèn)蔚睦斫?;它們根?jù)訓(xùn)練數(shù)據(jù)中的模式生成文本,沒有任何對準(zhǔn)確性的內(nèi)在關(guān)注。這使它們更像胡說八道者——生成的陳述聽起來可能可信,但沒有真實(shí)的基礎(chǔ)。
這種區(qū)分很重要,因?yàn)樗绊懳覀內(nèi)绾卫斫夂徒鉀Q這些模型生成的不準(zhǔn)確信息。如果我們認(rèn)為這些不準(zhǔn)確是幻覺,我們可能會(huì)認(rèn)為AI在試圖傳達(dá)真實(shí)信息但失敗了。
但正如Hicks及其同事所解釋的,像ChatGPT這樣的AI模型沒有信念、意圖或理解。它們純粹基于從訓(xùn)練數(shù)據(jù)中得出的統(tǒng)計(jì)模式運(yùn)行。
它們生成不準(zhǔn)確信息并不是因?yàn)楣室馄垓_(像撒謊一樣)或感知錯(cuò)誤(像幻覺一樣)。而是因?yàn)樗鼈儽辉O(shè)計(jì)用來創(chuàng)建看起來和聽起來正確的文本,而沒有任何內(nèi)在機(jī)制來確保事實(shí)準(zhǔn)確性。
“投資者、政策制定者和普通公眾在如何對待這些機(jī)器以及如何對其做出反應(yīng)時(shí),并非基于對其工作原理的深入技術(shù)理解,而是基于其能力和功能常常是以隱喻性的方式傳達(dá)的,”Hicks及其同事總結(jié)道。“稱這些錯(cuò)誤為‘幻覺’并非無害:它容易讓人誤以為機(jī)器某種程度上是誤解的,但仍在試圖傳達(dá)它們相信或感知的東西。”
“正如我們所論述的,這是錯(cuò)誤的隱喻。機(jī)器并沒有試圖傳達(dá)它們相信或感知的東西。它們的不準(zhǔn)確性不是由于誤解或幻覺。正如我們指出的,它們根本沒有試圖傳達(dá)信息。它們是在胡說八道?!?/p>
“稱聊天機(jī)器人錯(cuò)誤信息為‘幻覺’助長了技術(shù)支持者對其能力的過度炒作,并可能導(dǎo)致公眾的不必要擔(dān)憂。它還可能提出不適合的問題解決方案,并導(dǎo)致專家在AI對齊方面的誤導(dǎo)性努力,”研究者寫道。
“這也可能導(dǎo)致我們對機(jī)器在正確時(shí)的態(tài)度錯(cuò)誤:即便它們有時(shí)是正確的,其不準(zhǔn)確性顯示它們是在胡說八道。稱這些不準(zhǔn)確為‘胡說八道’而不是‘幻覺’不僅更準(zhǔn)確(如我們所論證的);這也是在科學(xué)和技術(shù)交流中一個(gè)迫切需要的良好實(shí)踐?!?/p>
OpenAI方面也表示,提高ChatGPT的事實(shí)準(zhǔn)確性是一個(gè)關(guān)鍵目標(biāo)。
“提高事實(shí)準(zhǔn)確性是OpenAI和其他許多AI開發(fā)者的一個(gè)重要焦點(diǎn),我們正在取得進(jìn)展,”該公司在2023年的一篇博客文章中寫道。“通過利用用戶反饋?zhàn)鳛橹饕獢?shù)據(jù)來源,我們改進(jìn)了GPT-4的事實(shí)準(zhǔn)確性。與GPT-3.5相比,GPT-4生成事實(shí)內(nèi)容的可能性提高了40%?!?/p>
“當(dāng)用戶注冊使用該工具時(shí),我們盡量透明地告知ChatGPT可能并非總是準(zhǔn)確的。然而,我們認(rèn)識到,還有很多工作要做,以進(jìn)一步減少幻覺的可能性,并教育公眾了解這些AI工具的當(dāng)前局限性?!?/p>
本文譯自 psypost,由 BALI 編輯發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )