盡管爭議不斷,Manus創始人的復盤卻干貨滿滿:AI智能體上下文工程的六大黃金法則 精華
在人工智能飛速發展的今天,明星公司Manus無疑是聚光燈下的常客,其產品和商業模式也引發了諸多討論與爭議。然而,拋開這些紛擾,當我們審視其技術內核時,不得不承認其團隊在AI智能體(Agent)領域的探索是深刻且極具價值的。
近日,Manus的創始人Yichao 'Peak' Ji發表了一篇深度復盤文章,坦誠地分享了團隊在構建智能體過程中“踩過的坑”和最終沉淀下的工程哲學。這篇文章的核心觀點振聾發聵:決定智能體成敗的關鍵,或許并非無休止地追逐更強的基礎模型,而是回歸本源,做好“上下文工程(Context Engineering)”。
這篇復盤沒有空談理論,而是充滿了來自“百萬級用戶真實測試”的實踐智慧。對于所有致力于構建AI智能體的開發者而言,這份“干貨滿滿”的總結,無疑是一份寶貴的戰術地圖。以下是我們提煉出的六條黃金法則。
法則一:圍繞KV緩存進行設計——成本與效率的命脈
在生產環境中,KV緩存命中率是衡量一個AI智能體性能最核心的指標,沒有之一。Ji指出,智能體的工作模式是典型的“長輸入、短輸出”(Manus的輸入輸出Token比高達100:1),上下文會隨著任務的進行滾雪球式地增長。能否有效利用KV緩存,直接決定了產品的延遲和成本。以Claude Sonnet模型為例,命中緩存的Token成本比未命中的要便宜10倍。
Manus的對策:
- 保持前綴穩定
堅決避免在系統提示詞等前置上下文中加入時間戳這類動態變量。 - 上下文只增不減
避免修改歷史記錄,并確保所有數據結構(如JSON)的序列化方式是確定且穩定的,防止“隱形”的緩存失效。 - 顯式管理緩存
在必要時,手動標記緩存斷點,確保核心指令被有效緩存。
法則二:掩蔽,而非移除——在復雜性中保持穩定
隨著智能體能力增強,其工具集會爆炸式增長。一個常見的誤區是動態地從上下文中移除當前不需要的工具,以期讓模型更“專注”。然而,這是一種致命的錯誤。
錯誤做法的代價:
- 緩存災難
工具定義通常位于上下文前部,任何改動都會導致整個KV緩存失效。 - 模型混淆
當歷史記錄引用了當前已不存在的工具時,模型會陷入困惑,導致行為異常。
Manus的對策:使用“掩蔽(Masking)”代替“移除”。他們通過一個上下文感知的狀態機,在解碼階段通過操縱Token的Logits來動態“屏蔽”或“推薦”某些工具的調用,而不是物理上刪除它們。這既保證了上下文的穩定性,又實現了動態的工具選擇。
技術深潛:什么是“操縱Logits”?
簡單來說,Logits是AI模型在決定輸出下一個詞(Token)前,為詞匯表中所有候選詞給出的原始“信心分數”,分數越高,被選中的可能性越大。
“操縱Logits”就是在模型產生這些分數后、將其轉換為最終概率前,進行的外科手術式干ervention。例如,通過將非法工具的Logit值直接設為負無窮大,就能“掩蔽”該選項,使其被選中的概率變為0。這種方法不像從上下文中“移除”工具定義那樣會破壞寶貴的KV緩存,因此它能在不犧牲效率的前提下,實現對智能體行為的精準、動態控制。
法則三:將文件系統作為“無限”上下文——突破窗口限制
即便是128K甚至更大的上下文窗口,在真實的智能體任務面前也常常捉襟見肘。網頁、PDF等非結構化數據能輕易撐爆窗口。同時,過長的上下文不僅昂貴,還會導致模型性能下降。
Manus的對-策:將文件系統視為終極的、無限的上下文。智能體被訓練成能夠自主地將信息寫入文件,并在需要時讀回。這種“外部化記憶”的策略,配合可恢復的壓縮(例如,在上下文中只保留文件的路徑或網頁的URL,而非全部內容),實現了在不丟失任何信息的前提下,大幅縮減上下文長度。
法則四:通過“復述”操縱注意力——對抗模型的“遺忘癥”
你可能見過Manus在執行任務時,會反復讀寫一個??todo.md??文件。這并非多余操作,而是一種精妙的注意力操縱機制。在長達幾十步的復雜任務中,大模型很容易“迷失在中間”,忘記最初的目標。
Manus的對策: 通過不斷地重寫待辦事項列表,智能體將最重要的全局計劃“復述”到上下文的末尾。這利用了模型對最近信息更敏感的特性,相當于在不斷提醒自己“勿忘初心”,從而有效對抗目標漂移。
法則五:擁抱錯誤——失敗是最好的學習數據
智能體在任務中犯錯是常態。許多開發者的第一反應是隱藏或清除這些錯誤記錄,讓上下文顯得“干凈”。但Manus的經驗恰恰相反:要刻意保留錯誤信息。
Manus的對策: 將失敗的動作、返回的錯誤碼、甚至是堆棧跟蹤信息完整地保留在上下文中。當模型看到這些失敗記錄時,它會像人類一樣從中吸取教訓,隱式地調整其行為策略,避免重蹈覆轍。在他們看來,出色的錯誤恢復能力,是衡量高級智能體與簡單腳本的核心區別。
法則六:警惕“少樣本陷阱”——避免思維僵化
少樣本提示(Few-shot Prompting)是提升模型表現的利器,但在智能體中卻可能成為陷阱。模型是出色的模仿者,如果上下文中充滿了大量重復、相似的成功范例,模型就會陷入“思維定勢”,即使外部條件變化,也傾向于僵化地重復已有模式。
Manus的對策:主動在上下文中引入“受控的隨機性”。通過在序列化模板、措辭、格式等方面引入微小的結構化變動,來打破上下文的單調性,從而“激活”模型的注意力,使其保持對新情況的敏感和適應性,避免變得脆弱。
結語
Manus創始人的這篇復盤,揭示了一個深刻的行業現實:在通往通用人工智能的道路上,我們需要的不僅是更大、更強的模型,更需要懂得如何與這些模型“溝通”的智慧。上下文工程,正是這門溝通的藝術和科學。
無論外界如何評價Manus這家公司,其團隊分享的這些從實戰中淬煉出的法則,無疑為整個AI社區提供了寶貴的財富。它提醒我們,真正的護城河,往往建立在這些看似樸實無-華,卻直擊問題本質的工程細節之上。未來,將由一個個精心設計的上下文構建而成。
原文地址:??https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus??
本文轉載自????????草臺AI????????,作者:RangerEX

















