1月27日凌晨,阿里云通義重磅開(kāi)源支持100萬(wàn)Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個(gè)尺寸,均在處理長(zhǎng)文本任務(wù)中穩(wěn)定超越GPT-4o-mini;同時(shí)開(kāi)源推理框架,在處理百萬(wàn)級(jí)別長(zhǎng)文本輸入時(shí)可實(shí)現(xiàn)近7倍的提速。
百萬(wàn)Tokens長(zhǎng)文本,可換算成10本長(zhǎng)篇小說(shuō)、150小時(shí)演講稿或3萬(wàn)行代碼。兩個(gè)月前, Qwen2.5-Turbo 升級(jí)了百萬(wàn)Tokens的上下文輸入能力,廣受開(kāi)發(fā)者和企業(yè)歡迎。如今,開(kāi)源社區(qū)可基于全新的 Qwen2.5-1M 系列模型,進(jìn)行長(zhǎng)篇小說(shuō)或多篇學(xué)術(shù)論文的解析,或是探索倉(cāng)庫(kù)級(jí)代碼的分析和升級(jí)。
Qwen2.5-1M擁有優(yōu)異的長(zhǎng)文本處理能力。在上下文長(zhǎng)度為100萬(wàn) Tokens 的大海撈針(Passkey Retrieval)任務(wù)中,Qwen2.5-1M 能夠準(zhǔn)確地從 1M 長(zhǎng)度的文檔中檢索出隱藏信息,僅有7B模型出現(xiàn)了少量錯(cuò)誤。在RULER、LV-Eval等基準(zhǔn)對(duì)復(fù)雜長(zhǎng)上下文理解任務(wù)測(cè)試中,Qwen2.5-14B-Instruct-1M 模型不僅擊敗了自家閉源模型 Qwen2.5-Turbo,還穩(wěn)定超越 GPT-4o-mini,為開(kāi)發(fā)者提供了一個(gè)現(xiàn)有長(zhǎng)上下文模型的優(yōu)秀開(kāi)源替代。
大模型的長(zhǎng)文本訓(xùn)練需要消耗大量的計(jì)算資源,通義團(tuán)隊(duì)通過(guò)逐步擴(kuò)展長(zhǎng)度的方法,從預(yù)訓(xùn)練到監(jiān)督微調(diào)再到強(qiáng)化學(xué)習(xí)等多個(gè)階段,高效地將 Qwen2.5-1M 的上下文長(zhǎng)度從 4K 擴(kuò)展到 256K;再通過(guò)長(zhǎng)度外推的技術(shù),創(chuàng)新引入Dual Chunk Attention機(jī)制,在無(wú)需額外訓(xùn)練的情況下,將上下文長(zhǎng)度高性能地穩(wěn)定擴(kuò)展到1M,從而在較低成本下實(shí)現(xiàn)了 Qwen2.5-1M 模型。
同時(shí),為了加快推理速度,通義團(tuán)隊(duì)在vLLM推理引擎基礎(chǔ)上,引入基于Minference的稀疏注意力機(jī)制,并在分塊預(yù)填充、集成長(zhǎng)度外推方案和稀疏性?xún)?yōu)化等多環(huán)節(jié)創(chuàng)新改進(jìn)?;谶@些改進(jìn)的推理框架有效地加快了模型推理速度,在不同模型大小和 GPU 設(shè)備上,處理 1M 長(zhǎng)度輸入序列的預(yù)填充速度提升了 3.2 倍到 6.7 倍。
據(jù)了解,Qwen2.5-1M已經(jīng)在魔搭社區(qū)ModelScope和HuggingFace等平臺(tái)開(kāi)源,開(kāi)發(fā)者可前往下載或直接體驗(yàn)?zāi)P停幌嚓P(guān)推理框架也已在GitHub上開(kāi)源,幫助開(kāi)發(fā)者更高效地部署Qwen2.5-1M模型。開(kāi)發(fā)者和企業(yè)也可通過(guò)阿里云百煉平臺(tái)調(diào)用 Qwen2.5-Turbo 模型API,或是通過(guò)全新的Qwen Chat平臺(tái)體驗(yàn)?zāi)P托阅芗靶Ч?/p>
附鏈接:
演示Demo:https://www.modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo
Modelscope:https://www.modelscope.cn/organization/Qwen
Huggingface:https://huggingface.co/Qwen
開(kāi)源框架地址:https://github.com/QwenLM/vllm/tree/dev/dual-chunk-attn
Qwen Chat體驗(yàn):https://chat.qwenlm.ai/
- 阿里云通義開(kāi)源首個(gè)長(zhǎng)文本新模型,百萬(wàn)Tokens處理性能超GPT-4o-mini
- 為什么要云轉(zhuǎn)型?企業(yè)邁向數(shù)字化未來(lái)的必由之路
- 中國(guó)唯一!阿里云當(dāng)選UALink聯(lián)盟董事會(huì)成員,推動(dòng)制定AI新標(biāo)準(zhǔn)
- 阿里云輕量應(yīng)用服務(wù)器全新升級(jí),「通用型實(shí)例」峰值帶寬高達(dá)200Mbps
- ?新一代核心系統(tǒng)全面上線!中華財(cái)險(xiǎn)與阿里云達(dá)成數(shù)智化升級(jí)新合作
- 阿里云通過(guò)信通院首批企業(yè)用云治理能力成熟度評(píng)測(cè)
- 2025年云預(yù)測(cè):傳統(tǒng)漏洞、人工智能增長(zhǎng)和邊緣繁榮
- 云遣返:工作負(fù)載分配的關(guān)鍵戰(zhàn)略考慮因素
- 告別加班!華為云推薦數(shù)智員工“入職”會(huì)無(wú)憂(yōu)
- 阿里云支持疊紙新游《無(wú)限暖暖》全球多平臺(tái)開(kāi)服!
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。