AI大模型領(lǐng)域近來(lái)依舊熱鬧非凡。最新報(bào)道,谷歌或?qū)⒂诮衲昵锛就瞥鯣emini大模型,重新爭(zhēng)奪AI頭把交椅位置。meta則在7月份推出Llama 2,并有條件地開源使用。OpenAI亦推出網(wǎng)絡(luò)爬蟲工具GPTBot,籌謀GPT-5的訓(xùn)練。然而,在“吃瓜”一眾AI大廠在“云端拼殺”的同時(shí),也不得不對(duì)另外一個(gè)趨勢(shì)給予關(guān)注——大模型正加速涌向設(shè)備端。
大模型向設(shè)備端延伸
年初,高通就在MWC 2023大會(huì)上發(fā)布了全球首個(gè)運(yùn)行在Android手機(jī)上的Stable Diffusion終端側(cè)演示。Stable Diffusion模型參數(shù)超過(guò)10億,高通利用其AI軟件棧對(duì)模型進(jìn)行量化、編譯和硬件加速優(yōu)化,使其成功在搭載第二代驍龍8 移動(dòng)平臺(tái)的手機(jī)上運(yùn)行。Arm也于日前推出Arm智能視覺參考設(shè)計(jì),推進(jìn)了AI大模型在終端與邊緣側(cè)的應(yīng)用。參考設(shè)計(jì)不僅包括Arm Corstone-1000、Arm Corstone-300、Arm Mali-C55 圖像信號(hào)處理器,還集成了安謀科技開發(fā)的玲瓏VPU和周易NPU,并由安謀科技將Arm IP與安謀科技自研IP進(jìn)行集成和驗(yàn)證。
手機(jī)廠商方面,彭博社爆料,蘋果正在籌劃“AppleGPT”。在第二財(cái)季財(cái)報(bào)電話會(huì)議中,蘋果CEO庫(kù)克承認(rèn),AI潛力巨大,但如何使用AI技術(shù),需要深入思考。庫(kù)克說(shuō),蘋果已經(jīng)將AI技術(shù)整合進(jìn)了產(chǎn)品和服務(wù),未來(lái)也將繼續(xù)這一進(jìn)程。在近日舉辦的小米年度演講上,小米集團(tuán)創(chuàng)始人、董事長(zhǎng)兼CEO雷軍表示,大模型是重大技術(shù)革命,小米必須全面擁抱。小米AI大模型最新一個(gè)13億參數(shù)大模型已在手機(jī)本地跑通。小米旗下人工智能助手小愛同學(xué)開始升級(jí)AI大模型能力,在發(fā)布會(huì)當(dāng)天開啟邀請(qǐng)測(cè)試。
未來(lái)部署的重要趨勢(shì)
云端部署是當(dāng)前大模型的主流方案,但模型推理成本較高限制了其大規(guī)模推廣。邊緣計(jì)算相較云端計(jì)算實(shí)現(xiàn)了計(jì)算資源和服務(wù)的下沉,能夠有效降低交互延遲、緩解數(shù)據(jù)傳輸?shù)膸拤毫Γ虼宋磥?lái)AIGC技術(shù)將呈現(xiàn)從云端向邊緣端延伸的趨勢(shì)。類似高通這樣混合式AI為代表的計(jì)算模式通過(guò)云端和邊緣端協(xié)同完成AI計(jì)算,較云端計(jì)算在能耗、性能、成本、隱私性等方面存在優(yōu)勢(shì),是未來(lái)大模型部署的重要發(fā)展方向。
事實(shí)上,早在生成式AI、大模型技術(shù)爆發(fā)之前,AI需求已經(jīng)呈現(xiàn)出向邊緣側(cè)設(shè)備端轉(zhuǎn)移的趨勢(shì)。比如在智能家居領(lǐng)域,邊緣人工智能可以讓智能家居設(shè)備在本地處理用戶的語(yǔ)音指令和數(shù)據(jù),實(shí)現(xiàn)更快速、高效的家居自動(dòng)化。在工業(yè)物聯(lián)網(wǎng)領(lǐng)域,將AI應(yīng)用到工業(yè)設(shè)備中,可以實(shí)現(xiàn)智能監(jiān)控、預(yù)測(cè)性維護(hù)等功能,提高工業(yè)生產(chǎn)效率和安全性。邊緣人工智能甚至在醫(yī)療設(shè)備中開始得到應(yīng)用,進(jìn)行實(shí)時(shí)健康監(jiān)測(cè)和智能診斷,提供更加個(gè)性化的醫(yī)療服務(wù)。相比局限于云端,邊緣設(shè)備市場(chǎng)有著更廣闊的想象空間。
軟硬生態(tài)將迎重塑
隨著AI大模型浪潮涌向設(shè)備端,從手機(jī)、筆記本電腦,到AR/VR、汽車和物聯(lián)網(wǎng)終端等,都會(huì)因?yàn)檫@場(chǎng)變革迎來(lái)重塑,進(jìn)而加速AI的規(guī)模化落地。首先從硬件上看,終端側(cè)算力將是AI大模型應(yīng)用落地不可或缺的一部分。由于云端算力不可能承載持續(xù)無(wú)限增長(zhǎng)的龐大計(jì)算需求,就需要讓更多算力需求“外溢”到終端,依靠終端算力來(lái)緩解這一問題。因此,更高的性能與低功耗將成為設(shè)備端芯片的需求。
大模型的出現(xiàn)將促使AI對(duì)芯片算力的需求變得更加強(qiáng)烈,這需要從提高算力密度和算力集成度等多個(gè)角度同時(shí)解決問題。芯片高功耗導(dǎo)致的散熱等問題,也是芯片算力提升的主要障礙,導(dǎo)致大模型訓(xùn)練與推理的成本巨大。此外,以Transformer為代表的網(wǎng)絡(luò)模型成為主流,大模型技術(shù)算法正有趨同的發(fā)展趨勢(shì)。定制化的AI芯片難以滿足AI產(chǎn)業(yè)的發(fā)展,通用性和可編程性變得越來(lái)越重要。
當(dāng)然,軟件上的變革也非常重大,通過(guò)改變?nèi)藱C(jī)交互的方式,大模型將重塑包括娛樂、內(nèi)容創(chuàng)作、生產(chǎn)力在內(nèi)的移動(dòng)應(yīng)用。總之,隨著大模型加速涌向設(shè)備端,終端側(cè)的生態(tài)亦將隨之而變。