亞馬遜發布 Kiro,一個新的 Cursor 競爭者 IDE,Claude Code 更新 Windows版支持
亞馬遜發布 Kiro,一個新的 Agentic IDE,能處理‘規格’和架構圖來搞定更復雜的任務。

預覽階段免費:???https://t.co/Ne5m2Nh4wC??,可以看到兩款模型。
圖片
這是又一個 VS Code 的閉源分支。
圖片
有氛圍編碼和規劃兩種模式。
氛圍編碼 (Vibe Chat & Build): 探索想法,并在發現需求時進行迭代。首先是Vibe Chat,然后是build。
規劃 (Plan & Build): 先制定詳細計劃,再構建。在開始編碼之前創建需求和設計。
圖片
Kiro 的特色:規約 (Specs) 與掛鉤 (Hooks)
規約 Specs 掛鉤 Hooks
- 規格驅動開發 (Spec-driven development):Kiro 幫你用自然語言和架構圖,把復雜功能的需求和設計說清楚。有了這么全面的上下文,Kiro 的 AI Agent 就能用更少的迭代次數,交出更好的結果。
- 智能 Agent 掛鉤 (Intelligent agent hooks):寫文檔、寫測試、性能優化這些煩人但又重要的活兒,Kiro 能自動處理。這些“掛鉤”會在后臺運行,由保存文件、提交代碼這些事件觸發。就像有個經驗豐富的老鳥在旁邊 review 你的工作,順手把那些容易拖延的維護任務都給干了。
用“規約”和“掛鉤”來創造,分三步
以一個電商App,加上一個“用戶評價系統”為例。
一句話第一步 需求清單& 設計圖第二步 </>第三步
圖片
第一步:從一句話,到一份清晰的需求清單。 輸入一句話:“給產品加上評價系統。” Kiro會把它拆解成一份完整的需求文檔,包括查看、創建、篩選、給評論打分等所有用戶故事。容易被忽略的邊緣情況,它用EARS語法寫好。

第二步:從需求,到一份技術設計圖。 Kiro會分析你的代碼庫和剛剛確認的需求,然后,生成一份設計文檔。數據流圖、TypeScript接口、數據庫結構、API端點……

第三步:開始實施。 Kiro會生成所有任務和子任務,并根據依賴關系排好序。每個任務都包含了單元測試、加載狀態、移動端適配、無障礙等等細節。你只需要一步步確認,看著進度條走完。

這份“藍圖”是活的。你改了代碼,Kiro會幫你更新規約。你改了規約,Kiro會幫你刷新任務。文檔和代碼,始終同步。
用“掛鉤”,在代碼提交前抓住問題
代碼寫完,準備提交了。你的腦子里是不是會閃過一串清單:我有沒有搞壞什么?測試更新了嗎?文檔寫了嗎?這種謹慎是好事,但手動檢查太累了。
Kiro的“掛鉤” (Hooks) 就是你的自動化“老法師”。你只需要設置一次,比如:
- 每次保存React組件時,自動更新測試文件。
- 每次修改API端點時,自動刷新README文檔。
- 每次準備提交時,自動掃描有沒有泄露密鑰。
它會像一個不知疲倦的伙伴,幫你和你的整個團隊,執行統一的質量、代碼和安全標準。
圖片
ONE MORE THING
Anthropic 的 Alex Albert 發推宣布:Claude Code 今天更新,原生支持 Windows 了。
想上手的話,先裝 Git for Windows,然后正常運行 Claude Code 的安裝命令就行。用 WSL (Windows Subsystem for Linux) 的方式也還支持。
安裝指南:https://docs.anthropic.com/en/docs/claude-code/setup
當然最近 Kimi K2 出來了,為你的 Claude Code 替換 Kimi 模型作為 API,可以這樣設置:
export ANTHROPIC_AUTH_TOKEN=你的月之暗面-API-Key
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic也可以使用這個項目自動化設置:???https://github.com/LLM-Red-Team/kimi-cc??
圖片
Claude Code 官方中文文檔
包含了快速開始、內存管理和常見工作流等。
圖片
官方文檔鏈接:https://docs.anthropic.com/zh-CN/docs/claude-code
封的這么嚴重,寫個中文文檔… 可能,給新加坡華人看的…
免費開源的等距繪圖工具 FossFLOW,能直接在瀏覽器中創建漂亮的 3D 風格技術圖表。 https://t.co/Uq6AwpkIOG
圖片
更多類似的:??https://icraft.gantcloud.com/????
?? https://www.cloudcraft.co/???
最快的 LLM 服務引擎:LMCache 這是一個 LLM 服務引擎,旨在減少第一個令牌的時間并提高吞吐量,尤其是在長上下文場景中。它通過將對 KV 緩存的訪問速度提高 7-100 倍來提升 vLLM。 https://t.co/f9vvUucTne
圖片
本文轉載自??AI進修生??,作者:Aitrainee

















