10月7日消息,麻省理工學(xué)院聯(lián)合 Meta AI 的研究人員日前開發(fā)了一款名為 StreamingLLM 的框架,為大語言模型可能遇到的 RAM 與泛化問題提出了一系列解決方案,號稱能夠“讓語言模型處理無限長度的文本內(nèi)容”。
據(jù)IT之家報道,StreamingLLM 的研究重點,是想解決實現(xiàn)流式語言模型(Efficient Streaming Language Models,ESLM)的障礙,特別是“長時間互動的多輪對話場景”中可能出現(xiàn)的問題。
研究人員指出,這種流式語言模型主要存在兩大挑戰(zhàn):第一個挑戰(zhàn):在解碼階段,獲取 token 的鍵(Key)值(Value)狀態(tài)會消耗大量的 RAM。
第二個挑戰(zhàn):目前流行的大語言模型,難以泛化適用“超過訓(xùn)練序列長度”的長文本。
過去有許多研究試圖解決上述挑戰(zhàn),像是“擴展注意力窗口”,讓語言模型能夠處理超出預(yù)訓(xùn)練序列長度的長文本;或是建立一個固定大小的活動窗口,只關(guān)注最近 token 的鍵值狀態(tài),確保 RAM 使用率和解碼速度保持穩(wěn)定,但若遇到“序列長度超過緩存大小”時,這個策略就會失效。
而當(dāng)前流式語言模型最大的挑戰(zhàn)是“如何不消耗過多 RAM 且不損害模型性能的前提下,處理長文本輸入”。
StreamingLLM 對此采取的策略是“運用注意力下沉現(xiàn)象”,研究人員觀察到,在自回歸語言模型中,無論特定 token 和語言模型本身的相關(guān)性如何,如果對代 token 分配了大量的注意力。
這些獲得高度注意力的 token,就會表現(xiàn)出注意力下沉的現(xiàn)象,即便這些 token 在語義上不重要,但他們?nèi)匀猾@得模型強烈關(guān)注(即給予特定 token 內(nèi)容大量注意力,從而獲得模型大部分的關(guān)注,而這些特定 token 內(nèi)容包含“下沉 token 的鍵值”,從而確保無論輸入序列有多長,模型的注意力計算都能維持穩(wěn)定)。
StreamingLLM 的重要貢獻,在于其提出一個簡單且高效的解決方案,使語言模型不需微調(diào)就可以處理無限長度的文本。從而解決當(dāng)前語言模型在流式應(yīng)用的困境。雖然未來流式語言模型勢在必行,但由于 RAM 效率的限制,以及模型在處理長序列的性能問題,相關(guān)模型發(fā)展仍受到挑戰(zhàn)。
經(jīng)研究團隊證實,StreamingLLM 能夠讓 Llama 2、MPT、Falcon 和 Pythia 可靠地處理高達 400 萬 token 的文本,能夠為流式語言模型提供更多部署方面的可能性。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 特斯拉CEO馬斯克身家暴漲,穩(wěn)居全球首富寶座
- 阿里巴巴擬發(fā)行 26.5 億美元和 170 億人民幣債券
- 騰訊音樂Q3持續(xù)穩(wěn)健增長:總收入70.2億元,付費用戶數(shù)1.19億
- 蘋果Q4營收949億美元同比增6%,在華營收微降
- 三星電子Q3營收79萬億韓元,營業(yè)利潤受一次性成本影響下滑
- 賽力斯已向華為支付23億,購買引望10%股權(quán)
- 格力電器三季度營收同比降超15%,凈利潤逆勢增長
- 合合信息2024年前三季度業(yè)績穩(wěn)健:營收增長超21%,凈利潤增長超11%
- 臺積電四季度營收有望再攀高峰,預(yù)計超260億美元刷新紀(jì)錄
- 韓國三星電子決定退出LED業(yè)務(wù),市值蒸發(fā)超4600億元
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。