極客網·人工智能6月18日 現在的生成式AI工具還不完美,經常會“撒謊”,這就是所謂的幻覺。為了克制幻覺,開發(fā)者開發(fā)出一系列工具,最近在硅谷比較流行的工具是檢索增強生成(Retrieval-augmented Generation,簡稱RAG)。
RAG是一種結合檢索和生成技術的模型,它為大模型提供外部知識源,使得大模型具備從指定的知識庫中進行檢索,并結合上下文信息,生成相對高質量的回復內容,減少模型幻覺問題。例如,企業(yè)可以將所有的HR政策和福利信息上傳到RAG數據庫,AI聊天機器人聚焦于可以從這些文件中找到的答案。
聽起來RAG似乎和ChatGPT技術沒有什么太大差異,實際上差異蠻大的。Thomson Reuters用RAG技術開發(fā)出一套面向法務工作者的AI工具,其公司高管Pablo Arredondo說:“RAG不會單純依靠初始訓練生成的記憶來回答問題,它會利用搜索引擎收集真實文檔,比如判例法、論文等,然后根據這些文檔錨定模型的響應?!?/p>
例如,我們可以將某本雜志的所有內容上傳到數據庫,根據數據庫內容回答問題。因為AI工具關注的信息面比較窄,信息質量更高,基于RAG開發(fā)的聊天機器人在回答問題時會比通用機器人更有深度。
RAG機器人會不會犯錯呢?當然會,但它捏造內容的概率會降低。
研究人員認為,RAG方法有很大優(yōu)勢,在訓練模型時,它所接受的信息都是事實,而且是可以追溯來源的事實。如果你能教模型對提供的數據進行分類,并在每個輸出結果中使用、引用,那么人工智能工具就不太可能犯嚴重的錯誤。
用了RAG技術,幻覺能降低多少呢?一些研究者認為,幻覺可以達到很低的程度,但無法完全消除。換言之,RAG不是萬能藥。總體看,幻覺減少程度取決于兩個核心要素:一是整體RAG的部署質量,二是對AI幻覺的定義。
并非所有的RAG都是一樣的。在自定義數據庫中,內容的精度影響著結果質量,但它并不是唯一影響因素。除了要關注內容的質量,還要關注搜索質量及基于問題的正確內容的檢索。掌握過程中的每一步都至關重要,因為一個失誤就可能使模型完全偏離。
斯坦福教授Daniel Ho說:“凡是在某個搜索引擎中使用自然語言搜索的律師都會發(fā)現,許多時候語義相似度影響巨大,它會導出完全不相關的資料?!?/p>
如何定義RAG應用中出現的幻覺也很重要。一些專家認為,判斷RAG系統(tǒng)是否出現幻覺主要是看輸出結果是否與數據檢索時模型找到的答案一致。斯坦福大學則認為,要檢查結果,看它是否基于提供的數據,是否符合事實。
在回答法律問題時,RAG系統(tǒng)明顯比ChatGPT、Gemini更好,但它仍然有可能忽視細節(jié),隨機給出錯誤答案。幾乎所有專家都認為,即使有了RAG系統(tǒng),也需要人類參與,對引用信息進行雙重檢查,判定結果的準確率。
在法律領域RAG系統(tǒng)可以找到用武之地,在其它領域也一樣。凡是需要專業(yè)知識的專業(yè)領域,AI系統(tǒng)給出的答案都應該錨定真實文件,所以RAG適合專業(yè)領域。
Daniel Ho說:“幻覺一直存在,我們還沒有找到好辦法真正消除幻覺?!彪m然RAG可以降低錯誤率,但還是需要人類來判斷結果如何。(小刀)
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )