AI 邊緣計算:決勝未來
核心摘要
- Akamai Inference Cloud是一個全棧云平臺,旨在助力各組織在邊緣側(cè)構(gòu)建、保護并優(yōu)化由人工智能驅(qū)動的應用程序。
- 該平臺專為支持智能體系統(tǒng)而設(shè)計,這些系統(tǒng)能夠適應用戶、與其他智能體交互并實時采取行動。
- 其關(guān)鍵特性包括搭載NVIDIA Blackwell GPU、托管Kubernetes、向量數(shù)據(jù)庫以及具備AI感知能力的安全防護。
- 該平臺主要賦能三類關(guān)鍵用戶:機器學習運維工程師、AI工程師以及智能體系統(tǒng)架構(gòu)師。
- Akamai Inference Cloud為在任何地方部署先進AI系統(tǒng)提供了可靠、安全且可擴展的基礎(chǔ)。

如您所在的企業(yè)正在考慮構(gòu)建和部署 AI 賦能應用程序,或您正在尋找合適的AI推理運行環(huán)境
點擊鏈接了解Akamai AI推理云解決方案,現(xiàn)在申請試用可得高達500美元專屬額度
2017年,一篇研究論文悄然改變了技術(shù)發(fā)展的進程。《注意力就是一切》引入了Transformer架構(gòu),這是一種處理語言和數(shù)據(jù)的新型模型,此后迅速成為幾乎每一項人工智能重大進步的基礎(chǔ)。當時,這一突破主要局限于學術(shù)界和開發(fā)者圈子。
五年后,即2022年11月,OpenAI發(fā)布了ChatGPT。廣大公眾首次能夠親身體驗到基于此架構(gòu)所實現(xiàn)的系統(tǒng)。這讓我們得以窺見一種全新的交互界面——不僅是與機器的交互,更是與知識本身的交互。
如今,在該產(chǎn)品發(fā)布僅三年之后,OpenAI報告其周活躍用戶數(shù)已突破7億。
世界經(jīng)濟論壇指出:人工智能正給勞動力市場帶來雙重顛覆。一方面,自動化導致現(xiàn)有崗位出現(xiàn)產(chǎn)能過剩。另一方面,對人工智能技能的需求增長速度,已超過教育和招聘體系的適應能力。舊的工作模式——以及我們?yōu)榇伺囵B(yǎng)人才的模式——正在迅速演變。
這標志著"開端"的結(jié)束。
回顧歷史,展望未來
二十七年前,世界曾站在一個類似的轉(zhuǎn)折點上。互聯(lián)網(wǎng)正在迅猛擴張,而關(guān)于規(guī)模、可靠性和安全性的問題尚未解決。在此背景下,麻省理工學院的一群研究人員懷著清晰的使命創(chuàng)立了Akamai:解決"萬維網(wǎng)等待"問題。
他們通過將計算、存儲和網(wǎng)絡(luò)資源更靠近創(chuàng)造和消費的節(jié)點來實現(xiàn)這一目標,這一模式后來被廣泛效仿。
智能體網(wǎng)絡(luò)的興起讓我們回到了原點,它帶來了人工智能及其實現(xiàn)潛力所需的推理所特有的新規(guī)模與鄰近性挑戰(zhàn)。
我們今天宣布推出的Akamai Inference Cloud,建立在近三十年前我們開創(chuàng)的分布式架構(gòu)工作基礎(chǔ)之上,旨在將AI推理從核心數(shù)據(jù)中心擴展至邊緣,再次消除瓶頸,突破集中式基礎(chǔ)設(shè)施的限制。
智能體網(wǎng)絡(luò)
新一代智能系統(tǒng)不再被動等待人類指令或輸入;它們能夠觀察、推理,并代表以自然語言表達意圖的用戶采取行動。這些系統(tǒng)會主動發(fā)起任務,與其他系統(tǒng)協(xié)同合作,并在無需逐步指導的情況下交付成果——這就是智能體網(wǎng)絡(luò)。
智能體網(wǎng)絡(luò)正在重塑人機與數(shù)字服務的交互模式。體驗正變得對話式、多模態(tài)與個性化。界面開始主動適應用戶意圖,而非反其道而行。當用戶尋求推薦時,系統(tǒng)會根據(jù)其偏好、使用場景和設(shè)備類型,以語音摘要、可視化對比或文字分析等最契合的形式呈現(xiàn)結(jié)果,并自動選擇最合適的表達風格與交互節(jié)奏。
智能體驅(qū)動交互亟需新型支撐體系
隨著智能體驅(qū)動交互逐漸普及,企業(yè)需要全新的支撐方案:推理計算必須更貼近用戶,響應時間需實現(xiàn)可預測的超低延遲,工具與內(nèi)存資源需保證實時就緒。整個技術(shù)棧必須支撐代表用戶與系統(tǒng)持續(xù)工作的智能體,而非僅處理孤立請求。
這場變革已悄然啟動,但傳統(tǒng)集中式云平臺并未為此做好準備。企業(yè)不得不在原始基礎(chǔ)設(shè)施與功能局限的解決方案間艱難抉擇。當前市場真正缺失的,正是專為智能體AI構(gòu)建的平臺——它能有效降低系統(tǒng)復雜度、加速開發(fā)進程,并在全球范圍實現(xiàn)智能行為的高效交付。
Akamai Inference Cloud 讓未來成為可能
Akamai Inference Cloud使這一未來成為可能。其云與AI戰(zhàn)略以滿足智能體系統(tǒng)和應用程序的需求為核心,這些系統(tǒng)和應用能夠適應用戶、與其他智能體通信并實時行動。
其獨特的分布式架構(gòu)專為支持這些模式而設(shè)計,為復雜的推理工作負載帶來所需的高性能計算、存儲和編排能力,并將路由、控制和響應能力部署在更靠近用戶的位置。
我們的客戶正面臨四項關(guān)鍵任務:
- 賦能AI應用
- 將AI作為新流量渠道進行管理
- 為企業(yè)工作負載配置AI智能體資源
- 實現(xiàn)員工負責任的AI消費
賦能AI應用
每家企業(yè)都將在其應用中嵌入智能功能。這代表了應用架構(gòu)的下一個發(fā)展階段——從響應式設(shè)計到多云架構(gòu),再到如今集成AI的實時系統(tǒng)。Akamai始終是值得信賴的基石,為每一次演進提供支持與安全保障。
將AI作為新流量渠道進行管理
用戶正通過AI平臺接觸品牌,就如同他們曾經(jīng)通過搜索、社交或移動平臺一樣。每個品牌、應用和API都需要界定其期望與非期望的AI交互,并智能地管理此類流量,從而將AI流量從風險轉(zhuǎn)化為機遇。
為企業(yè)工作負載配置AI智能體資源
我們的客戶正運用AI智能體來運營部分業(yè)務——從基礎(chǔ)設(shè)施管理到數(shù)據(jù)分析。智能體需要能夠訪問與內(nèi)外系統(tǒng)關(guān)聯(lián)的一流資源,但必須配備適當?shù)谋U洗胧湃巍⑸矸葑R別、可觀測性與安全性——以便企業(yè)能夠自信且高效地擴展其AI運營環(huán)境。
實現(xiàn)員工負責任的AI消費
各家企業(yè)的員工都在使用AI服務——Copilot、Cursor、ChatGPT、Claude等。企業(yè)必須對這類使用的合規(guī)性、成本及數(shù)據(jù)保護進行有效管理。
Akamai Inference Cloud 是實現(xiàn)推理規(guī)模化的關(guān)鍵
什么是 Akamai Inference Cloud?
Akamai Inference Cloud 是一個全棧云平臺,旨在構(gòu)建、保護并優(yōu)化由AI驅(qū)動的下一代智能應用。它提供與實時推理、智能體系統(tǒng)及更貼近用戶的智能的獨特需求相一致的計算、存儲、網(wǎng)絡(luò)、編排、安全性和開發(fā)者工具。(見下表)
構(gòu)建 | 保護 | 優(yōu)化 | |
面臨的問題 | - API托管成本高昂 - 集中式推理速度慢 - 自行托管模型困難 | - AI機器人抓取內(nèi)容 - AI端點泄露敏感數(shù)據(jù) - AI端點被濫用 - 威脅行為者使用DDoS和資源耗盡攻擊 | - 傳統(tǒng)網(wǎng)絡(luò)對AI搜索不可見 - AI界面響應緩慢 - 成本可能激增 - 智能體需要發(fā)現(xiàn)、認證、身份、信任等框架 |
解決方案 | 分布式智能基礎(chǔ)設(shè)施與開發(fā)者平臺 | AI感知的機器人管理和API安全 | AI連接網(wǎng)格 (服務于人類和智能體) |
相關(guān)產(chǎn)品 | - NVIDIA Blackwell GPU - 向量數(shù)據(jù)庫 - 對象/塊存儲 - 備份與快照 - VPC | - Akamai Guardicore微隔離 - Akamai應用與 API 保護器 - Akamai API安全 | - AEO/GEO - LLM速率限制與配額 - MCP服務器 - CDN加速 - 函數(shù)計算 - 可觀測性 |
為誰而建
Akamai Inference Cloud 是一個模塊化平臺,能夠滿足客戶不同階段的需求。無論您是在應用中調(diào)用來自O(shè)penAI和Gemini的托管API端點,還是圍繞您自己微調(diào)或提煉的模型構(gòu)建智能體工作流,Akamai Inference Cloud 都能讓您在邊緣進行構(gòu)建、保護和優(yōu)化。
具體而言,我們主要賦能三類用戶:
- 機器學習運維工程師:自動化整個機器學習生命周期,確保模型在生產(chǎn)中持續(xù)重新訓練、部署和性能監(jiān)控。
- AI工程師:構(gòu)建端到端智能體應用的數(shù)據(jù)科學家或軟件工程師,通常使用預訓練模型,彌合數(shù)據(jù)科學研究與生產(chǎn)軟件之間的差距。
- 智能體系統(tǒng)架構(gòu)師:從傳統(tǒng)系統(tǒng)架構(gòu)師演進而來,負責設(shè)計、構(gòu)建和管理復雜的自主智能體系統(tǒng),這些系統(tǒng)能夠獨立推理、規(guī)劃、行動和適應,以實現(xiàn)高層次業(yè)務目標。
通過Akamai Inference Cloud,我們并非將用戶鎖定在特定范式或解決方案中,而是為客戶提供靈活性,讓他們能夠根據(jù)自身偏好租用基礎(chǔ)設(shè)施、在無服務器平臺上開發(fā)并無縫組合復雜系統(tǒng)。
將NVIDIA AI技術(shù)棧部署在決策發(fā)生之地
2025年10月28日,我們宣布推出Akamai Inference Cloud,我們的目標是將在個性化體驗、實時決策和智能體所需的智能的、具備行為能力的AI推理帶到邊緣。
客戶現(xiàn)在能夠使用最新一代的NVIDIA Blackwell GPU,并配合NVIDIA BlueField網(wǎng)絡(luò)技術(shù);跨越GDDR7、DRAM和NVMe的分層內(nèi)存;高性能、可擴展的塊和對象存儲;托管向量數(shù)據(jù)庫;以及虛擬私有云網(wǎng)絡(luò)。
MLOps工程師可以按小時租用單個GPU,也可以構(gòu)建包含多達8個NVIDIA RTX PRO? 6000 Blackwell服務器版GPU、NVIDIA BlueField-3? DPU、128個vCPU、1,472 GB DRAM和8,192 GB NVMe的高性能推理集群。(圖1)

圖1: Akamai Cloud Manager 中服務器規(guī)格型號的截圖
NVIDIA Blackwell GPU提供卓越的性能。Akamai Inference Cloud 針對首次令牌時間 和每秒令牌數(shù) 進行了優(yōu)化。結(jié)合Akamai分布式邊緣基礎(chǔ)設(shè)施,Akamai Inference Cloud 能夠降低實時和交互式智能應用的延遲。
我們即將發(fā)布的基準測試分析將詳細闡述其性能表現(xiàn)。
通過App Platform部署和監(jiān)控智能體應用
為了進一步幫助平臺工程師,我們不止于為其提供基礎(chǔ)設(shè)施。平臺工程師可以使用我們預先構(gòu)建的云原生平臺輕松部署和監(jiān)控智能體應用,該平臺簡化了大規(guī)模部署大語言模型、智能體和知識庫的流程。
該平臺高度可定制,同時又具備預設(shè)最佳實踐——它加速部署,減少運維開銷,并將向量數(shù)據(jù)庫、LLM框架和OpenAI兼容API等AI就緒組件預集成到一個統(tǒng)一的自服務門戶中。App Platform經(jīng)過優(yōu)化,可在Akamai托管的Kubernetes引擎上運行,并且可移植到任何符合標準的Kubernetes集群。
用于LKE的App Platform集成了30多種受信任的云原生計算基金會開源工具,包括用于在生產(chǎn)中服務和擴展機器學習模型的Kubernetes原生框架KServe,以及用于在Kubernetes上構(gòu)建、部署和管理ML工作流的平臺Kubeflow Pipelines。
App Platform同時提供了Kubernetes框架和AI組件,供工程師構(gòu)建自己的AI平臺。這有助于避免在構(gòu)建和維護自有的基于Kubernetes的平臺或定制技術(shù)棧時需要進行大量集成的DIY方法。(圖2)

專為NVIDIA AI Enterprise集成而設(shè)計
NVIDIA AI Enterprise是一個軟件平臺,旨在簡化從AI開發(fā)到生產(chǎn)的旅程。此云原生套件加速并簡化了您構(gòu)建、部署和擴展AI應用的方式。通過使用NVIDIA推理微服務(NIM)和神經(jīng)模塊(NeMo)微服務等強大工具,它有助于您降低基礎(chǔ)設(shè)施成本并顯著縮短上市時間。(圖3)

Akamai Inference Cloud 正在演進,以原生方式容納整個NVIDIA AI Enterprise軟件套件。該平臺為各種規(guī)模的組織在任何地方——云端、數(shù)據(jù)中心或邊緣——部署先進的AI系統(tǒng)提供了可靠、安全且可擴展的基礎(chǔ),這一切都由廣泛的合作伙伴生態(tài)系統(tǒng)提供支持。
了解更多
Akamai Inference Cloud 正在快速發(fā)展,計劃在2026年前推出多項新產(chǎn)品。請關(guān)注Akamai博客或訪問我們的網(wǎng)站,以獲取關(guān)于Akamai Inference Cloud的更多信息。
—————————————————————————————————————————————————

點擊鏈接了解Akamai AI推理云解決方案,現(xiàn)在申請試用可得高達500美元專屬額度























