極客網(wǎng)·極客觀察(朱飛)7月24日“千模大戰(zhàn)”時(shí)代,算力與數(shù)據(jù)成為大模型“競(jìng)爭(zhēng)”的核心戰(zhàn)場(chǎng)。不過對(duì)于廣大中小企業(yè)和組織來(lái)說(shuō),大模型對(duì)計(jì)算資源的需求、超百億甚至千億級(jí)的參數(shù)規(guī)模、體系架構(gòu)設(shè)計(jì)的高難度,提升了其邁入行業(yè)大模型應(yīng)用的門檻。然而大模型的發(fā)展不會(huì)永遠(yuǎn)停留在模型參數(shù)的疊加和算力的堆砌,如何將大模型與企業(yè)實(shí)際應(yīng)用場(chǎng)景相結(jié)合才是引爆未來(lái)價(jià)值的增長(zhǎng)點(diǎn)。
將通用模型和各領(lǐng)域?qū)S兄R(shí)數(shù)據(jù)結(jié)合,企業(yè)不必從零開始構(gòu)建基礎(chǔ)大模型,而是在已有大模型基礎(chǔ)之上,融入自身領(lǐng)域行業(yè)知識(shí),訓(xùn)練生成行業(yè)專用大模型,通過實(shí)踐推理反哺提升專用大模型能力,向垂直化、行業(yè)化發(fā)展是大模型技術(shù)落地應(yīng)用的優(yōu)選方向。然而對(duì)于企業(yè)來(lái)講,基于云端大模型訓(xùn)練\推理存在數(shù)據(jù)安全風(fēng)險(xiǎn);基于本地化訓(xùn)練\推理,面臨安裝部署繁瑣、復(fù)雜、硬件資源使用效率低、成本高昂的問題。那么,到底該如何降低企業(yè)大模型的部署和使用門檻呢?
7月14日,在大模型時(shí)代AI存儲(chǔ)新品發(fā)布會(huì)上,華為面向行業(yè)大模型訓(xùn)練/推理場(chǎng)景,重磅發(fā)布FusionCube A3000訓(xùn)/推超融合一體機(jī),2小時(shí)即可完成開局,真正做到開箱即用。整柜采用存算分離架構(gòu),存、算可以靈活獨(dú)立擴(kuò)展,幫助企業(yè)最大化降低安裝、部署門檻。內(nèi)置OceanStor A300高性能存儲(chǔ)節(jié)點(diǎn),實(shí)現(xiàn)AI大模型訓(xùn)練、推理加速,速度快人一步。
一站式方案,行業(yè)大模型交付新模式
FusionCube A3000訓(xùn)/推超融合一體機(jī)針對(duì)百億級(jí)模型應(yīng)用,集成存儲(chǔ)節(jié)點(diǎn)、訓(xùn)/推節(jié)點(diǎn)、交換設(shè)備、AI平臺(tái)軟件,以及管理運(yùn)維軟件,免去大量適配調(diào)優(yōu)、系統(tǒng)搭建的成本,為大模型伙伴提供“拎包入住”式的部署體驗(yàn),2小時(shí)內(nèi)即可完成部署。預(yù)制業(yè)界主流AI模型,即開即用,即用即開發(fā)。
FusionCube A3000訓(xùn)/推超融合一體機(jī)采用存算分離架構(gòu)實(shí)現(xiàn)訓(xùn)/推節(jié)點(diǎn)和存儲(chǔ)節(jié)點(diǎn)解耦,支持兩種交付模式:包括華為昇騰一站式方案;以及開放計(jì)算、網(wǎng)絡(luò)、AI平臺(tái)軟件的第三方伙伴一站式方案。前者全棧采用華為自研OceanStor A300高性能存儲(chǔ)節(jié)點(diǎn)、計(jì)算、網(wǎng)絡(luò)產(chǎn)品及AI平臺(tái)軟件,能夠最大化發(fā)揮AI軟硬件協(xié)同的澎湃性能;后者同樣基于華為OceanStor A300高性能存儲(chǔ)節(jié)點(diǎn),但廣泛支持第三方GPU算力、交換機(jī)設(shè)備和AI平臺(tái)軟件,用戶可根據(jù)自身行業(yè)特性和場(chǎng)景應(yīng)用按需選擇。
高集成更有高性能
簡(jiǎn)單對(duì)比不難發(fā)現(xiàn),這兩種交付模式有一個(gè)共同點(diǎn),即均基于華為自研存儲(chǔ)節(jié)點(diǎn)OceanStor A300構(gòu)建?!按竽P蜁r(shí)代,數(shù)據(jù)決定AI智能的高度。作為數(shù)據(jù)的載體,數(shù)據(jù)存儲(chǔ)成為AI大模型的關(guān)鍵基礎(chǔ)設(shè)施?!睋Q言之,AI大模型時(shí)代,需要新的AI存儲(chǔ)產(chǎn)品提供數(shù)據(jù)“最優(yōu)解”。內(nèi)置于FusionCube A3000訓(xùn)/推超融合一體機(jī)中的OceanStor A300高性能存儲(chǔ)節(jié)點(diǎn),正是華為數(shù)據(jù)存儲(chǔ)為大模型訓(xùn)練推理創(chuàng)新構(gòu)筑的數(shù)據(jù)之“基”。
OceanStor A300采用NFS over RDMA高速低時(shí)延協(xié)議,顯著降低I/O延遲;通過國(guó)內(nèi)首創(chuàng)NFS+協(xié)議,實(shí)現(xiàn)多鏈路聚合,大幅提升主機(jī)訪問性能;通過Flashlink?盤控配合智能算法,達(dá)到永快一步平穩(wěn)性能。
得益于此,根植于OceanStor A300之上的FusionCube A3000訓(xùn)/推超融合一體機(jī),存儲(chǔ)單節(jié)點(diǎn)支持高達(dá)50GB/s的帶寬以及180萬(wàn)IOPS,性能數(shù)倍領(lǐng)先于業(yè)內(nèi)同類產(chǎn)品。
黑科技加持實(shí)現(xiàn)資源共享,大幅提高GPU使用效率
用戶搭建深度學(xué)習(xí)訓(xùn)練環(huán)境,需要安裝Python、TensorFlow、GPU驅(qū)動(dòng)等,如果要從開發(fā)環(huán)境到測(cè)試環(huán)境,再?gòu)臏y(cè)試環(huán)境到生成環(huán)境,涉及環(huán)境遷移過程中需要花費(fèi)大量精力來(lái)保證環(huán)境的一致性。
容器帶來(lái)的標(biāo)準(zhǔn)化能力可以將相關(guān)軟件一并打包到鏡像中,一次構(gòu)建,即可在不同平臺(tái)運(yùn)行,極大降低安裝、部署的復(fù)雜度;同時(shí)各容器間相互隔離,可實(shí)現(xiàn)多訓(xùn)練框架并存,而且每一個(gè)框架都可以獨(dú)立進(jìn)行升級(jí)而不會(huì)影響其他業(yè)務(wù),降低日常運(yùn)維的難度,讓客戶可以將更多的精力集中在AI訓(xùn)練上。
華為通過高性能容器軟件,實(shí)現(xiàn)CPU和GPU等資源的池化共享。傳統(tǒng)的IT系統(tǒng)會(huì)為每個(gè)應(yīng)用預(yù)留一定的物理算力資源,也意味著CPU或GPU資源將被獨(dú)占,資源的利用率通常低于40%。而通過容器應(yīng)用共享CPU與GPU的資源池,資源的利用率將提升至超過70%,幫助企業(yè)達(dá)成降本增效。
面向新一輪AI浪潮的大模型時(shí)代,華為數(shù)據(jù)存儲(chǔ)持續(xù)突破黑科技,以創(chuàng)新數(shù)據(jù)基礎(chǔ)設(shè)施為數(shù)據(jù)智能應(yīng)用筑“基”,開創(chuàng)行業(yè)大模型一站式交付新模式,大幅降低AI大模型的部署和使用門檻,開啟AI賦能千行百業(yè)的加速度!
春風(fēng)來(lái)不遠(yuǎn),只在屋東頭!FusionCube A3000很近,“AI”不遠(yuǎn)!
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長(zhǎng)
- MIT想用AI設(shè)計(jì)電動(dòng)汽車,大幅縮短設(shè)計(jì)時(shí)間并節(jié)省成本
- 美媒:一些中國(guó)大模型已經(jīng)追平甚至超越美國(guó)產(chǎn)品
- 透過這場(chǎng)開發(fā)者圈的“年度盛典”,窺見華為開發(fā)者生態(tài)構(gòu)建之道
- 谷歌Willow量子芯片有進(jìn)步 但離實(shí)用還很遙遠(yuǎn)
- LLM很難變成AGI?科學(xué)家:創(chuàng)造AGI理論上可行
- PON在園區(qū)網(wǎng)絡(luò)的“先天不足”,無(wú)源以太全光來(lái)拯救!
- 英特爾CEO黯然退場(chǎng)背后:芯片制造陷泥潭,AI起大早趕晚集
- 開源5年樹立新里程 openEuler以智能 致世界
- 華為推出Mate 70手機(jī)引發(fā)高度關(guān)注 看外媒是如何評(píng)價(jià)的?
- 5G-A終端規(guī)模鋪開響應(yīng)“以舊換新”,湖北移動(dòng)“機(jī)網(wǎng)套”協(xié)同刺激內(nèi)需
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。