6月9日消息,在Hugging Face上登頂、并攪動(dòng)大模型領(lǐng)域風(fēng)云的“新選手”Falcon 40B又有了新動(dòng)態(tài)。
亞馬遜云科技宣布,從6月7日起,兩個(gè)開源Falcon大語(yǔ)言模型Falcon 40B和Falcon 7B已在Amazon SageMaker的機(jī)器學(xué)習(xí)中心Amazon SageMaker JumpStart中可用。
SageMaker JumpStart提供了預(yù)訓(xùn)練模型、內(nèi)置算法和預(yù)構(gòu)建的解決方案模板,可幫助用戶快速上手機(jī)器學(xué)習(xí),以執(zhí)行文章總結(jié)和圖片生成等任務(wù)。
用戶只需在SageMaker Studio中輕點(diǎn)鼠標(biāo)就可以部署和使用Falcon模型,或者通過(guò)SageMaker Python SDK以編程方式使用。
這意味著,現(xiàn)在,各個(gè)行業(yè)、各種規(guī)模的企業(yè)/開發(fā)者都可以快速輕松地部署自己的Falcon 40B模型,并對(duì)其進(jìn)行定制以滿足特定需求,如翻譯、問答、信息總結(jié)、圖像識(shí)別等應(yīng)用程序。此舉對(duì)生成式AI行業(yè)發(fā)展可謂意義重大。
Falcon 40B是誰(shuí)?牛在哪兒
Falcon 40B是阿布扎比技術(shù)創(chuàng)新研究所(TII)推出的開源大型語(yǔ)言模型,是阿聯(lián)酋首個(gè)大型人工智能模型。
Falcon 40B參數(shù)400億,在1萬(wàn)億高質(zhì)量token上進(jìn)行了訓(xùn)練。其性能超越硅谷大佬扎克伯格旗下650億參數(shù)的LLaMA,以及StableLM、RedPajama和MPT等知名開源模型,一舉登頂HuggingFace 開源大語(yǔ)言模型全球榜。
Hugging Face 開源LLM排行榜
Hugging Face一直被認(rèn)為是大模型領(lǐng)域GitHub,因此Hugging Face的榜單被從業(yè)者給予了很高的參考價(jià)值。
不僅性能剽悍,F(xiàn)alcon 40B還是一個(gè)在訓(xùn)練資源上有很高效率的模型,只用到GPT-3 75%的訓(xùn)練預(yù)算,性能就顯著超越GPT-3,且推理階段的計(jì)算也只需GPT-3的1/5。
優(yōu)異的表現(xiàn)讓Falcon 40B獲得“史上最強(qiáng)開源大語(yǔ)言模型”稱號(hào)。
更重要的是,F(xiàn)alcon 大語(yǔ)言模型采用開源Apache 2.0許可證,基于開源原則,廣泛地允許“免費(fèi)使用”(如果商業(yè)化開源收入超過(guò)100萬(wàn)美金,需要繳納10%的授權(quán)費(fèi)用),這為廣大AIGC產(chǎn)品開發(fā)者大開了方便之門。
開源的Falcon 40B讓開發(fā)者能夠構(gòu)建和定制滿足獨(dú)特用戶需求的AI工具,模型權(quán)重可供下載,檢查和部署在任何地方。
基于亞馬遜云科技訓(xùn)練完成
此番,F(xiàn)alcon開源大語(yǔ)言模型在Amazon SageMaker JumpStart中可用,可謂對(duì)生成式AI行業(yè)意義重大,廣大開發(fā)者都很是興奮。
事實(shí)上,F(xiàn)alcon大語(yǔ)言模型和Amazon SageMaker的“淵源很深”。
Falcon 大語(yǔ)言模型提供的兩個(gè)不同規(guī)模的開源版本——Falcon 40B和Falcon 7B均是使用Amazon SageMaker的數(shù)據(jù)預(yù)處理和模型訓(xùn)練任務(wù)從零開始構(gòu)建。
通常而言,構(gòu)建、訓(xùn)練和部署大語(yǔ)言模型可能需要數(shù)周甚至數(shù)月的時(shí)間,并耗資數(shù)千萬(wàn)美元。為了實(shí)現(xiàn)更好的性能和成本效益,TII使用Amazon SageMaker構(gòu)建其Falcon 40B模型。
SageMaker是一個(gè)托管API集合,用于開發(fā)、訓(xùn)練、調(diào)優(yōu)和托管機(jī)器學(xué)習(xí)(ML)模型,包括大語(yǔ)言模型。SageMaker Training提供了具有用戶自定義硬件配置和代碼的計(jì)算集群。計(jì)算作業(yè)按運(yùn)行次數(shù)計(jì)費(fèi),按秒分配任務(wù),這意味著用戶在未使用服務(wù)時(shí)無(wú)需為GPU資源付費(fèi)。
據(jù)悉,TII使用SageMaker Training API提供的瞬態(tài)集群來(lái)訓(xùn)練Falcon大語(yǔ)言模型,最多支持48個(gè)ml.p4d.24xlarge實(shí)例(384個(gè)英偉達(dá)A100 GPU)。
現(xiàn)在,TII正在訓(xùn)練下一代Falcon大語(yǔ)言模型,將訓(xùn)練擴(kuò)展到3136個(gè)A100 GPU(392個(gè)ml.p4d實(shí)例)。
除了Falcon外,Stability AI、AI21 Labs和LG AI等知名大模型也是使用SageMaker處理其大語(yǔ)言模型工作負(fù)載。
從TII對(duì)Amazon SageMaker的深度使用來(lái)看,為了讓客戶更輕松地訪問該模型,F(xiàn)alcon 40B可以通過(guò)Amazon SageMaker Jumpstart部署可謂是水到渠成。
模型拿來(lái)可用 加速AIGC應(yīng)用產(chǎn)品落地
在生成式AI賽道上,亞馬遜云科技可謂是“既要”、“又要”的典型代表?!凹纫睘榈谌酱笳Z(yǔ)言模型產(chǎn)品如Falcon 40B、Stability AI等提供基礎(chǔ)計(jì)算能力和訓(xùn)練平臺(tái),同時(shí),“又要”為第三方客戶/開發(fā)者提供諸多可使用的“大語(yǔ)言模型產(chǎn)品”。
今年4月,亞馬遜云科技推出Amazon Bedrock托管服務(wù)和Amazon Titan模型。Amazon Bedrock讓開發(fā)者可以通過(guò)API訪問AI21Labs、Anthropic和Stability AI等熱門AI公司的預(yù)訓(xùn)練基礎(chǔ)模型,還提供對(duì)亞馬遜云科技開發(fā)的基礎(chǔ)模型系列Amazon Titan的獨(dú)家訪問。
現(xiàn)在,通過(guò)Amazon SageMaker JumpStart,各行業(yè)客戶都可以快速輕松地部署自己的Falcon 40B模型,并進(jìn)行個(gè)性化定制。
那么,截至目前,在亞馬遜云科技,開發(fā)者可以訪問、部署、使用的大語(yǔ)言模型就有AI21Labs、Anthropic、Stability AI、Amazon Titan、Falcon 40B等。開發(fā)者可以在其中找到適合自身業(yè)務(wù)的模型,快速上手,使用自有數(shù)據(jù)基于基礎(chǔ)模型進(jìn)行定制,并將定制化模型集成并部署到應(yīng)用程序。這一方式無(wú)疑將極大加速大語(yǔ)言模型應(yīng)用產(chǎn)品的落地。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )