0
| 本文作者: 陳悅琳 | 2026-04-24 18:08 |
云也在告別互聯(lián)網(wǎng)時(shí)代。
這場(chǎng)告別發(fā)生在每一層:最底層的IaaS,算力形態(tài)從CPU轉(zhuǎn)向GPU加速集群;PaaS層與新興的MaaS層(模型即服務(wù))融合,企業(yè)無(wú)需關(guān)心模型訓(xùn)練和部署,通過(guò)API即可調(diào)用AI能力;最貼近用戶的SaaS層被一種全新的交互方式取代——給Agent布置一個(gè)任務(wù),由它自主決策、獨(dú)立完成。
AI帶來(lái)的變量不止于此。當(dāng)黃仁勛直言AI推理的規(guī)模將達(dá)到AI訓(xùn)練負(fù)載的10億倍時(shí),云的組織邏輯也隨之發(fā)生改變。
推理時(shí)代,中心云正在輸?shù)艉撩爰?jí)算力競(jìng)賽
在過(guò)去,AI訓(xùn)練時(shí)代的一切都是集中的——數(shù)據(jù)、算力、模型,全部可以堆在少數(shù)幾個(gè)超大規(guī)模數(shù)據(jù)中心里。
此時(shí)玩家之間比拼的,是誰(shuí)能調(diào)集更多GPU、誰(shuí)能扛住更長(zhǎng)的迭代周期。但當(dāng)AI的重心從訓(xùn)練轉(zhuǎn)向推理時(shí),這套集中式打法不得不面臨物理瓶頸。
海量、實(shí)時(shí)、持續(xù)涌入的在線請(qǐng)求,是AI推理時(shí)代最明顯的特征。它背后隱藏著用戶對(duì)毫秒級(jí)響應(yīng)的期待。
Akamai亞太區(qū)云計(jì)算架構(gòu)師總監(jiān) 李文濤
Akamai亞太區(qū)云計(jì)算架構(gòu)師總監(jiān)李文濤指出,以首Token時(shí)延為例,大規(guī)模多用戶在線游戲的玩家要求控制在15毫秒以內(nèi),電商個(gè)性化推薦約20毫秒,即便是容忍度最高的自動(dòng)應(yīng)答機(jī)器人,也需要在100毫秒左右完成響應(yīng)。
然而,這并不是中心云擅長(zhǎng)的領(lǐng)域。在集中式云架構(gòu)下,一次推理請(qǐng)求往往需要跨越城市、國(guó)界甚至更遠(yuǎn)的距離進(jìn)行傳輸,網(wǎng)絡(luò)往返延遲動(dòng)輒百毫秒,Token生成效率深受影響。
當(dāng)新晉“頂流”Agent讓持續(xù)的多輪交互成為常態(tài),這種延遲更是被不斷放大。
此外,在GDPR、各國(guó)數(shù)據(jù)主權(quán)法規(guī)的合規(guī)要求下,中心云“數(shù)據(jù)回傳”模式明顯存在風(fēng)險(xiǎn)。
因此在AI推理時(shí)代,比“算力儲(chǔ)備還剩多少”更關(guān)鍵的問(wèn)題是——如何能在離用戶更近的距離高效使用算力?
于是,AI云市場(chǎng)的玩家們,給出了各自的答案。
以谷歌云、阿里云為代表的全棧云廠商試圖讓云更強(qiáng)。通過(guò)擴(kuò)建更多區(qū)域、引入邊緣節(jié)點(diǎn)、分層推理體系等方式,這類生態(tài)型玩家選擇讓中心云盡可能靠近用戶。
而CoreWeave、Lambda Labs等垂直AI云玩家則將重心放在了計(jì)算效率的極致優(yōu)化上。成本優(yōu)先的部署策略決定了邊緣并非它們的主戰(zhàn)場(chǎng)。
此時(shí),Akamai等深耕邊緣的云廠商找到了自己的“舒適區(qū)”。“更近”和“高效”對(duì)它們而言,意味著兩道更具體的考題:物理覆蓋的密度與算力調(diào)度的精度。
從邊緣到核心,Akamai的算力經(jīng)濟(jì)學(xué)
這正是Akamai的天然主場(chǎng)。
借由超4400個(gè)邊緣節(jié)點(diǎn),Akamai聯(lián)合英偉達(dá)在去年10月推出專為AI推理設(shè)計(jì)的邊緣云平臺(tái)Akamai Inference Cloud。推理能力對(duì)于用戶側(cè)來(lái)說(shuō)不再遙不可及。
市場(chǎng)的反饋來(lái)得比預(yù)期更快。在尚未全面上市時(shí),Akamai推理云的測(cè)試名額就已售罄,并與美國(guó)一家大型科技公司簽下四年2億美元的服務(wù)協(xié)議。
據(jù)Akamai大中華區(qū)新任副總裁張軻介紹,在硬件方面,Akamai推理云選擇了英偉達(dá)在AI推理場(chǎng)景下主推的一款高效經(jīng)濟(jì)的GPU——NVIDIA RTX PRO 6000 Blackwell。
張軻向雷峰網(wǎng)表示,今年Akamai也將基于該卡構(gòu)建全球最大規(guī)模的推理算力集群。
李文濤還補(bǔ)充道,該GPU虛擬機(jī)出方向流量成本只有0.005美元/GB,相比同類競(jìng)品,整機(jī)性價(jià)比高出一倍以上。
但他同時(shí)直言,不是所有的AI服務(wù)都需要頂級(jí)的GPU。
以Akamai推理云服務(wù)的韓國(guó)某游戲企業(yè)為例,李文濤指出該客戶基于RTX PRO 6000 Blackwell系列GPU驅(qū)動(dòng)NPC實(shí)時(shí)對(duì)話,結(jié)合RTX 4000 Ada GPU實(shí)時(shí)生成游戲圖像,最終整體投入產(chǎn)出比優(yōu)化約30%。
這背后反映出,這家CDN創(chuàng)始者已經(jīng)不滿足于節(jié)點(diǎn)覆蓋。在Token經(jīng)濟(jì)學(xué)盛行的當(dāng)下,要想打造真正的護(hù)城河,必須有效組織且準(zhǔn)確調(diào)度分散的算力。
而助力Akamai推理云精打細(xì)算的,正是一個(gè)月前剛剛引入的算力分級(jí)調(diào)度系統(tǒng)AI Grid。
基于Akamai流量調(diào)度專利和負(fù)載均衡技術(shù),參考英偉達(dá)AI網(wǎng)格(AI Grid)實(shí)踐,這一機(jī)制在回答如何按需分配的問(wèn)題時(shí)如魚(yú)得水:
邊緣路由在識(shí)別小模型推理、數(shù)據(jù)預(yù)處理等輕量級(jí)推理請(qǐng)求后,就近分發(fā)給本地邊緣算力即時(shí)處理;
分布式GPU層利用部署在全球人口密集區(qū)域的GPU節(jié)點(diǎn)承接中等規(guī)模任務(wù);
更復(fù)雜的工作則交由高端GPU組成的集中式AI工廠來(lái)完成,從而避免所有流量集中涌入中心節(jié)點(diǎn)造成擁塞。
在此基礎(chǔ)上,Akamai還疊加Serverless函數(shù)計(jì)算。據(jù)李文濤介紹,Akamai將FaaS的冷啟動(dòng)時(shí)間壓縮至0.5毫秒,最高可快于其他公有云競(jìng)品1000倍。
此外,Akamai還應(yīng)用了語(yǔ)義緩存技術(shù),讓相似請(qǐng)求無(wú)需重復(fù)調(diào)用GPU——某亞洲智能客服企業(yè)借此自動(dòng)回答了超過(guò)60%的常見(jiàn)問(wèn)題,減少Token消耗。
Akamai大中華區(qū)副總裁 張軻
因此,也不難理解張軻透露的數(shù)字:在特定的分布式AI 推理場(chǎng)景,Akamai推理云相較友商已實(shí)現(xiàn)30%至60%不等的成本優(yōu)勢(shì)。
當(dāng)前,Akamai也正根據(jù)不同區(qū)域市場(chǎng)的產(chǎn)業(yè)特點(diǎn)協(xié)同發(fā)力。李文濤尤為關(guān)注當(dāng)下具身智能、自動(dòng)駕駛汽車等物理AI場(chǎng)景的爆發(fā)。
他指出,這些領(lǐng)域恰恰對(duì)AI推理的時(shí)延、可靠性和安全性提出了最高要求,Akamai也將致力于推理任務(wù)中成本與性能之間的平衡。
當(dāng)安全內(nèi)置于AI推理
AI推理在提升應(yīng)用智能水平的同時(shí),也打開(kāi)了全新的攻擊面。
除了SQL注入、跨站腳本等經(jīng)典漏洞依然存在之外,提示詞注入、越獄攻擊,以及通過(guò)MCP接口實(shí)現(xiàn)的數(shù)據(jù)濫用等AI原生威脅層出不窮。
這類攻擊不再依賴代碼漏洞,而是利用自然語(yǔ)言誘導(dǎo)模型“犯錯(cuò)”,而傳統(tǒng)WAF對(duì)此幾乎無(wú)能為力。
Akamai大中華區(qū)售前技術(shù)經(jīng)理 馬俊
Akamai大中華區(qū)售前技術(shù)經(jīng)理馬俊告訴雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng)),作為Akamai在2025年第一大收入支柱,貢獻(xiàn)超50%營(yíng)收的安全業(yè)務(wù)正從獨(dú)立的營(yíng)收板塊深度融入AI推理云中,成為“無(wú)安全不推理”的默認(rèn)配置:
AI防火墻通過(guò)攔截和過(guò)濾,建立“輸入+輸出”的雙重防線;API安全態(tài)勢(shì)中心能夠自動(dòng)發(fā)現(xiàn)和管理未納管的AI接口,將其納入統(tǒng)一防護(hù)體系,避免數(shù)據(jù)在無(wú)監(jiān)控狀態(tài)下流動(dòng)。
對(duì)于更底層的風(fēng)險(xiǎn),Akamai則通過(guò)Guardicore微分段技術(shù)第一時(shí)間識(shí)別并攔截攻擊者在算力網(wǎng)絡(luò)中的橫向移動(dòng)。
Akamai的安全策略甚至下沉到硬件層執(zhí)行。如果主機(jī)被攻破,底層網(wǎng)絡(luò)仍可借由英偉達(dá)的BlueField DPU維持隔離與控制能力 ,解決了OT、ICS等工業(yè)環(huán)境無(wú)法部署Agent級(jí)別防護(hù)的難題。
當(dāng)安全防護(hù)從邊界防御內(nèi)嵌至推理路徑中,AI推理規(guī)模化落地才更有底氣。
這一可靠性正轉(zhuǎn)化為商業(yè)回報(bào)。Akamai 2025年財(cái)報(bào)顯示,其云計(jì)算業(yè)務(wù)總營(yíng)收達(dá)7.08億美元,同比增長(zhǎng)12%。其中,云基礎(chǔ)設(shè)施服務(wù)(CIS)表現(xiàn)尤為突出,全年?duì)I收增長(zhǎng)36%,第四季度增速更高達(dá)45%。
具體到北美以外的最大市場(chǎng)——大中華區(qū),Akamai云計(jì)算業(yè)務(wù)實(shí)現(xiàn)了接近40%的年度增長(zhǎng)率,增速高于全球平均水平。
而這也離不開(kāi)張軻強(qiáng)調(diào)的Akamai一站式出海方案和本地完善的合作伙伴生態(tài)。
他還補(bǔ)充道,早在2010年就已經(jīng)成立的大中華區(qū)團(tuán)隊(duì)已擴(kuò)展至約200名員工,其中有70%從事售后服務(wù)相關(guān)崗位,保障云計(jì)算的平穩(wěn)運(yùn)行。
隨著AI推理云成為Akamai在2026年的發(fā)展主軸,Akamai還要回答的是——在算力稀缺的當(dāng)下,如何讓有效算力的每一次調(diào)用都能持續(xù)達(dá)到快且準(zhǔn)。
這才是云競(jìng)爭(zhēng)的真正分野。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。