一、 算力的競賽
需求端:AI 拉動成長,算力需求空間廣闊
2022 到 2023,全球 AI 布局加速,大量人工智能模型涌現(xiàn)。2022 年 11 月,OpenAI 發(fā) 布聊天機(jī)器人 ChatGPT,將生成式 AI 的燎原戰(zhàn)火帶入公眾視野。2023 年 2 月,Meta AI ?在其官網(wǎng)公開發(fā)布了 LLaMA 大型語言模型。2023 年 5 月,Google 發(fā)布新一代大語言模 型 PaLM 2。與此同時(shí),中國科技企業(yè)也按下了 AI 領(lǐng)域的快進(jìn)鍵。百度于 2023 年 3 月 發(fā)布文心大模型。此后,商湯、阿里云、科大訊飛、華為等陸續(xù)發(fā)布各自的大模型。

大量人工智能模型的推出和迭代大幅帶動了上游的算力需求。一方面,全球人工智能模 型數(shù)量的增長對上游算力需求的拉動十分顯著。另一方面,單個(gè)模型的持續(xù)迭代過程中, 其算力需求較以往亦有大幅增長。以 GPT 系列預(yù)訓(xùn)練過程為例,歷代 GPT 參數(shù)量呈現(xiàn)指數(shù)級增長,未來其算力需求有望 大幅增長。訓(xùn)練一次 1750 億參數(shù)的 GPT-3 模型需要的算力約為 3640 PFlop/s-day,約合 3.14E23 FLOPs。但這算力消耗速 度很快被新一代模型刷新。GPT-4 不僅支持文本輸入,還支持圖像輸入,文字輸入限制 提升至 2.5 萬單詞,所需計(jì)算規(guī)模大幅提升。

歷代 GPT 系列的參數(shù)量和預(yù)訓(xùn)練數(shù)據(jù)量
算力需求提升,意味著芯片、服務(wù)器、云廠商和運(yùn)營商等各個(gè)環(huán)節(jié)的需求增長。根據(jù)中 國信通院《中國算力發(fā)展指數(shù)白皮書》測算,2021 年全球計(jì)算設(shè)備算力規(guī)模超過 615EFLOPS(1 個(gè) EFLOPS 代表 10^18FLOPS),同比增速高達(dá) 44%左右,而后續(xù)幾年則 將迎來算力引爆時(shí)代。信通院報(bào)告預(yù)測,2030 年,全球算力規(guī)模有望達(dá) 56ZFLOPS,2022- 2030 年復(fù)合增長率達(dá) 65%。這對于 AI 芯片需求的拉動將會非常顯著: 一方面,從服務(wù)器總量上來看,算力需求增長將帶動 GPU 服務(wù)器出貨量增速高升, 從而帶動訓(xùn)練芯片的需求; 另一方面,從服務(wù)器結(jié)構(gòu)上來看,相比較普通 GPU 服務(wù)器(一般配備單卡或雙卡), AI 服務(wù)器平均每單位出貨所需的 GPU 數(shù)量至少翻倍(一般配置 4 塊以上 GPU 卡)。
供給端:算力競賽激烈角逐
從 AI 芯片的市場格局看: GPU 核心供應(yīng)商包括了 NVIDIA、AMD 等,NVIDIA 目前占據(jù)大部分市場。 FPGA 供應(yīng)商主要包括 Intel、賽靈思(AMD)等,其中賽靈思于 2022 年被 AMD 收 購。 ASIC 市場較為分散,比較知名的供應(yīng)商例如設(shè)計(jì)生產(chǎn) TPU 的谷歌。 隨著 AI 技術(shù)的迭代、算力需求的增長,各家芯片企業(yè)亦展開了百舸爭流的競爭態(tài)勢
在 GPU 市場,英偉達(dá)憑借以 H100 為首的高性能 GPU,率先卡位。;AMD:GPU 加速追趕英偉達(dá),并快速布局 FPGA;谷歌:TPU 不斷迭代,TPU v4 性能優(yōu)秀;英特爾:提升 FPGA 推新頻率,Gaudi2 性能強(qiáng)。

二、 大模型
隨著大模型能力的持續(xù)迭代、應(yīng)用端需求的不斷增加,模型能力對外輸出的需求帶來了 MaaS(Model-as-a-Serivce)服務(wù)生態(tài)的形成。 以微軟為例,微軟云是 OpenAI 的獨(dú)家云提供商,微軟 Azure OpenAI 可以直接調(diào)用 OpenAI 模型,企業(yè)可以申請?jiān)L問包括 GPT-4、ChatGPT、Codex 以及 DALL.E 等模型, 根據(jù)用量進(jìn)行商業(yè)化收費(fèi)。

AI 模型輸出的需求將帶來MaaS 業(yè)態(tài)的持續(xù)增長。不論是通用大模型、還是行業(yè)模型,其模型能力的輸出都會帶來 MaaS 服務(wù)需求的增加。
三、同質(zhì)化的競爭?
1、大模型:從基模型到行業(yè)模型,模之戰(zhàn)斗開啟
隨著 OpenAI 等先行者的突圍、LLAMA 等模型的開源,當(dāng)前國內(nèi)外大模型產(chǎn)品如雨后春 筍一般層出不窮。

中國《人工智能大模型地圖研究報(bào)告》顯示, 據(jù)不完全統(tǒng)計(jì),國內(nèi) 10 億級以上參數(shù)的大模型已有70+個(gè);

盡管各家模型企業(yè)在算力資源和數(shù)據(jù)資 源上存在差別,但多數(shù)模型本身可能并不存在絕對的差異化。正如北京智源人工智能研 究院院長黃鐵軍表示,“大模型發(fā)展中沒有絕對的壁壘和護(hù)城河,有了大模型就像人類多 年前學(xué)會了發(fā)電,后續(xù)還會有各種各樣的‘發(fā)電手段’不斷演進(jìn)迭代”,“大家比拼的是 成本和效率,競爭的是應(yīng)用和生態(tài)”。
2、問題:若模型同質(zhì)化,MaaS 壁壘何在?
伴隨著大模型的層出不窮,云廠商們提供的 MaaS 服務(wù)也在積極開展。 國際云服務(wù)巨頭提供的 MaaS 業(yè)務(wù)模式,按照合作模型方的數(shù)量可以歸為兩類: 接入獨(dú)家模型:如微軟 Azure 綁定 OpenAI,則 AzureOpenAI 所能提供的 MaaS 能 力優(yōu)劣大幅取決于 OpenAI 的模型能力。 接入多個(gè)模型:如亞馬遜 AWS 推出 Amazon Bedrock,通過 API 可訪問 AI 21 Labs、 Anthropic、Stability AI、Amazon Titan 等不同的模型。再如,Salesforce AI Cloud 托管了 AWS、Anthropic、Cohere 等不同合作伙伴的 LLM 模型。 當(dāng)然,從模型廠商——如 Anthropic 和 Cohere——的角度,模型企業(yè)也樂于與多個(gè) 云服務(wù)平臺展開非排他的合作。

從國內(nèi)巨頭近期的動作上看,打造開放的、多模型來源的模型商店,也是 MaaS 服務(wù)越 來越常見的模式。以字節(jié)跳動的火山方舟為例,其集成了百川智能、出門問問、復(fù)旦大 學(xué) MOSS、IDEA 研究院、瀾舟科技、MiniMax、智譜 AI 等多家 AI 科技公司及科研院所 的大模型,并已展開測試邀請。

未來“多模型”將成為 MaaS 平臺的重要合作模式,而 MaaS 平臺之間的產(chǎn)品相似性也會越來越高,MaaS 服務(wù)將成為基礎(chǔ)設(shè)施。從長期角度,除了算力等資源外,精細(xì)化運(yùn)營程度、價(jià)格等因素可能成為 MaaS 平臺的核心競爭力。