Akamai云上AI推理:賦能開發者加速邊緣原生應用
人工智能(AI)的熱度持續攀升,行業的焦點正從單純的模型訓練轉向如何高效部署模型以實現實際應用——這正是AI推理技術的核心價值所在,即利用訓練完成的AI模型生成預測與洞察。Akamai始終致力于構建未來的藍圖:不僅讓AI推理更易于獲取,還要確保其具備高性能、可擴展性和成本效益,并能夠在全球范圍內進行邊緣部署。
延伸閱讀,點擊鏈接了解 Akamai Cloud Computing
隨著Akamai云推理服務(Akamai Cloud Inference)的推出,我們向"打造全球分布最廣的云計算平臺"的愿景又邁出了重要一步,為AI及其他高吞吐量、低延遲的工作負載提供強有力的支持。這項服務匯聚了我們近期的多項關鍵技術突破,賦能開發者更高效地構建和交付邊緣原生應用與AI解決方案。我們深刻認識到,雖然集中式云架構擅長處理大規模AI訓練任務,但在需要持續按需推理和超低延遲響應的全球化場景中,常常難以勝任。
Akamai基于云原生技術的戰略布局,致力于構建更快速、更具成本效益的AI推理云服務。其核心架構建立在Akamai Cloud——全球分布最廣的公有云平臺之上,借助完整的云產品矩陣和覆蓋全球的網絡設施,為AI推理提供了獨特的優勢。Akamai云推理服務采用云原生、可擴展的Kubernetes架構,結合Linode Kubernetes Engine(LKE)與Akamai應用平臺,可實現AI應用和推理場景的快速部署。
Akamai解決方案的核心優勢
? Akamai的新解決方案為平臺工程師和開發人員提供了構建和運行AI應用程序及數據密集型工作負載的工具,能夠將計算資源更接近終端用戶,從而提供3倍的吞吐量提升,并將延遲減少最多2.5倍。
? 與傳統的傳統超大規模云架構相比,使用Akamai的解決方案,企業可以在人工智能推理和代理人工智能工作負載上的成本可節省高達86%。
? 從輕量級微調所需的最新AMD CPU,到強大的加速計算選項,如NVIDIA GPU
和NETINT視頻處理單元(VPU),我們提供了強大計算能力,能夠滿足用戶在AI推理方面的獨特需求。
? 我們與VAST Data的合作為實時數據提供了簡化的訪問,這對加速推理相關任務至關重要。我們的服務還配備了高度可擴展的對象存儲,并與Aiven和Milvus等領先的向量數據庫供應商進行集成,支持增強生成(RAG)任務。
? 通過我們的云原生Kubernetes平臺,包括全新的LKE-Enterprise和應用平臺,我們使AI應用容器具有高度的可擴展性和可移植性,消除了供應商鎖定和復雜性,優化了速度、成本和安全性。
? 與領先的WebAssembly(WASM)平臺Fermyon的合作,Akamai使開發人員能夠直接從無服務器應用程序在邊緣執行輕量級推理,推動低延遲的應用程序。
我們的全球分布式網絡覆蓋超過4,100個節點,確保從云端到邊緣終端的計算資源能夠實現低延遲訪問。這種架構組合讓我們能夠在全球任意規模場景下,都能夠提供業界領先的低延遲和高吞吐量AI推理服務。
這項創新不止于技術突破,其核心價值是為企業提供實際可用的AI解決方案。例如,在零售領域,通過實時物體檢測和識別技術提升零售結賬體驗,加速交易速度的同時降低出錯率;在智能汽車領域,基于邊緣推理的的車載語音助手,為導航優化和車控功能提供即時且高度相關的反饋。這些只是Akamai Cloud Inference如何驅動真實商業價值的生動案例。
展望未來,我們的愿景非常明確:構建未來的AI推理方式,以最高的吞吐量和最低的響應時間,幫助企業快速高效地提供AI推理服務。當行業越來越意識到集中式架構難以滿足邊緣AI的嚴苛要求時,Akamai處于有利的增長態勢中,能夠幫助客戶擴展AI項目,將數據轉化為更接近數字觸點的行動。歡迎進入由Akamai Cloud賦能的AI推理未來。
—————————————————————————————————————————————————
如您所在的企業也在考慮采購云服務或進行云遷移,
點擊鏈接了解Akamai Linode解決方案,現在申請試用可得高達500美元專屬額度
























