樹莓派 Zero大改造:老設(shè)備變身AI神器,本地運行大模型驚艷
近年來,大語言模型(LLM)的應用越來越廣泛,而在個人設(shè)備上部署這些模型的趨勢也愈發(fā)明顯。近日,越南開發(fā)者 Binh Pham 成功地將樹莓派 Zero 改造為一個小型 USB 驅(qū)動器,使其能夠在本地運行 LLM,無需任何額外設(shè)備。這一創(chuàng)新實驗展示了老舊設(shè)備在 LLM 領(lǐng)域的潛力。
樹莓派 Zero 是一款小巧的微型計算機,雖然其硬件性能有限,但在本次實驗中,Pham 成功地將其轉(zhuǎn)化為一個輕量級的 USB 驅(qū)動器。這一創(chuàng)新項目主要得益于 llama.cpp 和 llamafile 的支持,這兩者結(jié)合了指令集和一系列輕量級軟件包,旨在提供一種離線的輕量級聊天機器人體驗。
首先,Pham 將設(shè)備連接到 USB 接口,并為其 3D 打印了一個外殼,解決了硬件問題。然而,由于樹莓派 Zero W 的內(nèi)存限制,項目變得更加復雜。Pham 在嘗試將 llama.cpp 編譯到該設(shè)備時遇到了失敗,此前也無人嘗試在樹莓派 Zero 或 One 上編譯該軟件。為了克服這一障礙,Pham 對 llama.cpp 的 ARMv8 指令集進行了轉(zhuǎn)換,并移除所有基于現(xiàn)代硬件的優(yōu)化或注釋。這一步驟是關(guān)鍵的一步,因為樹莓派 Zero 的 CPU 采用的是 ARMv6 架構(gòu),而非 ARMv8 架構(gòu)。
在成功修改 llama.cpp 源代碼后,Pham 將注意力轉(zhuǎn)向軟件的運行和用戶體驗的優(yōu)化。他構(gòu)建了一個基于文本文件輸入的 LLM 實現(xiàn),這些文本文件作為主要的提示,而 LLM 則會根據(jù)這些提示生成故事,并以完整的輸出文件形式返回。這一創(chuàng)新性的方法為 LLM 的本地運行提供了新的可能性。
為了測試性能,Pham 對多個模型進行了基準測試。他設(shè)置了 64 個 token 的限制,并對 15M 到 136M 不等的模型進行了測試。其中,Tiny15M 模型的每個 token 處理速度為 223 毫秒,而較大的 Lamini-T5-Flan-77M 模型的每個 token 處理速度為 2.5 秒。這些測試結(jié)果揭示了樹莓派 Zero 在處理 LLM 時可能存在的性能瓶頸。盡管這一項目具有創(chuàng)新性,但在實際應用中,使用老舊的輕量級硬件運行本地 LLM 并不具備太多實用價值。
盡管如此,這一項目仍然具有啟示性意義。它展示了如何在資源有限的設(shè)備上運行 LLM,并提出了新的可能性。對于那些不追求高性能模型的用戶來說,使用樹莓派 Zero 等老舊設(shè)備運行 LLM 可能是一個實用的選擇。而對于開發(fā)者來說,這一項目也為他們提供了一個有趣的研究課題,即如何利用老舊設(shè)備來優(yōu)化 LLM 的性能。
總的來說,樹莓派 Zero 的大改造展示了老舊設(shè)備在 LLM 領(lǐng)域的潛力。雖然這一項目在性能上可能存在限制,但在未來,隨著 LLM 的進一步發(fā)展以及硬件技術(shù)的進步,我們期待看到更多的創(chuàng)新實驗和探索。對于個人用戶和開發(fā)者來說,這些創(chuàng)新實驗將為 LLM 的應用和發(fā)展提供新的思路和可能性。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )