當商湯董事長兼CEO徐立在一面頗具中國風的背景面前發(fā)布全新升級的「日日新SenseNova 5.0」大模型體系,預示著商湯成為了首家實現(xiàn)了云端邊全棧布局的企業(yè),而正是在這樣一面背景之上,赫然寫著「AI大模型時代 II」。
于是,人們不禁會問,商湯何以跑出了大模型落地的「逃逸速度」,實現(xiàn)了大模型性能超越GPT-4 Turbo的呢?
如果我們對商湯日日新5.0大模型以及商湯背后強大的算力支撐,有一個全面的了解,便不會對此有任何的驚訝。
正如徐立所言,「商湯在尺度定律的指導下,會持續(xù)探索大模型能力的KRE三層架構(gòu)(知識-推理-執(zhí)行),不斷突破大模型能力邊界?!挂源藶榛c,我們或許能夠找到商湯跑出大模型落地的「逃逸速度」的內(nèi)在邏輯。
商湯日日新5.0性能全面超越GPT-4 Turbo
自去年4月正式上線以來,商湯日日新大模型系統(tǒng)已經(jīng)完成了五大版本的迭代升級。而此次升級,主要是基于超過10TB tokens訓練、覆蓋大量合成數(shù)據(jù),采用混合專家架構(gòu),推理時上下文窗口可以有效到 200K 左右,以及聚集增強了知識、數(shù)學、推理及代碼能力,全面對標 GPT-4 Turbo,主流客觀評測上達到或超越 GPT-4 Turbo。
得益于這些更新,日日新5.0的「文科能力」、「理科能力」以及多模態(tài)能力,全面得到了一次質(zhì)的提升。
以日日新5.0和GPT-4回答趣味推理問題為例:“媽媽給圓圓沖了一杯咖啡,圓圓喝了半杯后,將它加滿水,然后她又喝了半杯后,再加滿水,最后全部喝完。問圓圓喝的咖啡多,還是水多?”,日日新5.0回答正確,GPT-4回答錯誤。
日日新5.0的這些能力的提升,可以在中文語境下,更好地為用戶進行總結(jié)和問答,助力教育、內(nèi)容等行業(yè)場景應用的落地。
同時,日日新5.0的數(shù)理能力、代碼能力以及推理能力的大幅度提升,同樣可以為金融、數(shù)據(jù)分析等場景的應用,提供有力支撐。
除了「文科能力」、「理科能力」之外,日日新5.0的多模態(tài)能力,同樣表現(xiàn)優(yōu)異。它不僅支持高清長圖的解析和理解以及文生圖交互式生成,還可以實現(xiàn)復雜的跨文檔知識抽取及總結(jié)問答展示,還具備豐富的多模態(tài)交互能力。
商湯多模態(tài)大模型的圖文感知能力達到全球領先水平,在多模態(tài)大模型權(quán)威綜合基準測試MMBench中綜合得分排名首位,在多個知名多模態(tài)榜單MathVista,AI2D,ChartQA,TextVQA,DocVQA,MMMU 取得領先成績。
可見,商湯日日新5.0在「文科能力」、「理科能力」以及多模態(tài)能力上的突出表現(xiàn),為其更好地助力大模型場景落地打下了堅實的基礎。它不僅在主觀評測上全面達到或者超越了GPT-4 Turbo,更加可以在中文環(huán)境下助力更多本土企業(yè)積極擁抱大模型時代帶來的紅利。
因此,如果我們要尋找商湯日日新5.0跑出大模型落地的「逃逸速度」的內(nèi)在邏輯的話,文理兼修的全面發(fā)展以及多模態(tài)交互的卓越表現(xiàn),無疑是最值得我們?nèi)リP注的一個重要方面。
云端邊全棧布局,商湯打造大模型產(chǎn)品矩陣
隨著AI時代的來臨,特別是當中心化算力需求向端側(cè)擴展以及企業(yè)級邊側(cè)AI需求的不斷增加,只有實現(xiàn)云、端、邊的高效協(xié)同,才能真正助力大模型的落地。
正是基于這樣一種認知,商湯在業(yè)內(nèi)首次推出「云、端、邊」全棧大模型產(chǎn)品矩陣,其中包括應用于終端設備的「商湯端側(cè)大模型」,以及面向金融、代碼、醫(yī)療、政務等多個領域的邊緣產(chǎn)品「商湯企業(yè)級大模型一體機」。
據(jù)悉,商湯日日新·端側(cè)大語言模型的推理速度達到了業(yè)內(nèi)最快,可在中端平臺實現(xiàn)18.3字/s的平均生成速度,旗艦平臺更是達到了78.3字/s。
擴散模型同樣可在端側(cè)實現(xiàn)業(yè)內(nèi)最快的推理速度,端側(cè)LDM-AI擴圖技術(shù)在某主流平臺上,推理速度小于1.5秒,比友商云端app快10倍,支持輸出1200萬像素及以上的高清圖片,支持在端上快速進行等比擴圖、自由擴圖、旋轉(zhuǎn)擴圖等圖像編輯功能。
值得一提的是,為了滿足金融、代碼、醫(yī)療、政務等重點行業(yè)邊緣側(cè)日益增長的AI應用需求,商湯正式推出企業(yè)級大模型一體機,可同時支持企業(yè)級千億模型加速和知識檢索硬件加速,實現(xiàn)本地化部署,即買即用,降低企業(yè)應用大模型的門檻。相比行業(yè)同類產(chǎn)品,推理成本節(jié)約80%,檢索大大加速,CPU工作負載50%。
得益于商湯在云、端、邊的全棧布局,商湯可以讓AI大模型在更多的企業(yè)落地,讓每一個企業(yè)的需求都能夠得到最大限度的滿足。
正因如此,
在辦公領域,商湯基于“日日新”大模型的卓越代碼生成及工具調(diào)用能力,助力WPS 365打造更高效釋放場景能力的辦公新質(zhì)生產(chǎn)力平臺,為企業(yè)構(gòu)建專屬的“企業(yè)大腦”。
在金融領域,海通證券與商湯科技聯(lián)合發(fā)布金融行業(yè)多模態(tài)全棧式大模型,雙方在智能客服、合規(guī)風控、代碼輔助、展業(yè)辦公助手等領域助推業(yè)務落地,并共研智能投顧、輿情監(jiān)控等行業(yè)前沿場景,打通證券行業(yè)大模型落地的全棧式能力。
在出行領域,基于商湯端云大模型解決方案,小米小愛同學為車主提供智能化交互體驗。
可以預見的是,隨著商湯日日新5.0的云、端、邊全棧布局的不斷深入,我們還將會看到更多的企業(yè)在商湯的助力之下實現(xiàn)AI應用的快速落地,不斷地去擁抱AI時代來臨的紅利。
算力加持,商湯找到遵循「尺度定律」的路徑
無論是日日新5.0的全面升級,亦或是商湯基于云端邊的全棧布局,其實都離不開商湯打造的算力中心的加持與支撐。
正如商湯董事長兼CEO徐立所說的那樣,商湯持續(xù)尋求最有數(shù)據(jù)配比并建立數(shù)據(jù)質(zhì)量評價體系,推動自身大模型研發(fā)的同時,也為行業(yè)伙伴提供大模型訓練、微調(diào)、部署和各類生成式AI的能力及服務。
在本次技術(shù)交流日最后環(huán)節(jié),商湯科技董事長兼CEO徐立還帶來了三段完全由大模型生成的視頻,并強調(diào)文生視頻平臺對于人物、動作和場景的可控性。
商湯科技在文生視頻平臺方面也取得了技術(shù)突破,未來,通過輸入一段文字或一個完整的描述,就可以生成一段視頻,而且人物的服飾、發(fā)型、場景都可以根據(jù)預先設定,保持視頻內(nèi)容的連貫性和一致性。
不難看出,商湯的文生視頻,已經(jīng)在路上了。
可以說,商湯找到了遵循「尺度定律」的路徑。
正是基于這樣一個全新的路徑,商湯才可以不斷地實現(xiàn)日日新5.0的升級,才可以打造了云、端、邊的全棧布局,才可以滿足越來越多的企業(yè)對于AI的新需求。
因此,如果我們要尋找商湯跑出大模型落地的「逃逸速度」的內(nèi)在原因的話,商湯智能算力中心在背后的強大加持,無疑是最值得我們?nèi)リP注的另外一個重要方面。
結(jié)語
從日日新5.0的知識、數(shù)學、推理及代碼能力,全面對標 GPT-4 Turbo,主流客觀評測上達到或超越 GPT-4 Turbo,到業(yè)內(nèi)首次實現(xiàn)云端邊全棧布局,再到商湯對于合作伙伴的深度賦能,乃至是商湯對于AGI時代的全面擁抱,我們都可以看出,商湯著實跑出了大模型落地的「逃逸速度」。
當商湯日日新5.0的性能超越 GPT-4 Turbo,當商湯比 GPT-4 Turbo更懂中國的消費者和企業(yè),商湯無疑可以在“尺度定律”路徑逐漸清晰的時刻,實現(xiàn)一次彎道超車,助力AI在更多場景落地,真正實現(xiàn)算法、算力、數(shù)據(jù)、應用和場景的全面協(xié)同。
—完—
作者:孟永輝,資深撰稿人,專欄作家,行業(yè)觀察家,知名KOL。
免責聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內(nèi)容。投訴郵箱:editor@fromgeek.com。
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。