比Claude好用10倍,便宜10倍!世界上最快的Agentic編程模型!剛剛,xAI發布全新模型,免費用!網友:抽卡任 原創
編輯 | 云昭
出品 | 51CTO技術棧(微信號:blog51cto)
8月29日凌晨,馬斯克之前預告的全新編程模型終于發布了!
距離 xAI 推出 Grok Code 不到三天,馬斯克又帶著一款大殺器來跟奧特曼的 GPT-5 來打(抬)擂(杠)了!
“感覺比 Claude 好用 10 倍,速度也快 10 倍!”
這款模型一經放出,就收獲了一個榮譽稱號:「最快的 agentic 編程模型」。
Grok Code 這是要接管所有 Cline 的工作空間呀!
手快的網友當然不會放過這款新編程模型,從 X 、Hackernews、Reddit 上的網友的來看,絕對的閃光點多于吐槽點。
圖片
昨天用 Cline 測試了一下。速度很快,與代理流配合良好,并且能生成不錯的代碼。
我覺得它達到或超過了 GPT5-mini 的水平,這在我看來已經很棒了。
還有一位 X 網友比較客觀的對新模型的亮點做出了總結: “感覺比 Claude 好用 10 倍,速度也快 10 倍”、“ Grok Code 成本最低,性能最高。”
才過了三天,它就已經成為許多人的明顯選擇 它不僅速度更快,而且功能更強大,結果也非常有希望。
節省大量成本:
- 比 Sonnet 4 或 Gemini 2.5 Pro 便宜 11 倍
- 每次會話可節省 85–91% 的成本,使用緩存可節省 93–97% 的成本,尤其適用于原型設計和調試等高頻任務
> 與 Sonnet-4 的Diff Edit水平相當,并且有所改進
圖片
這位熱心的網友直接放出來實際使用的 Diff Edit 的失敗率,Grok Code Fast已經達到了 Clade 4 Sonnet 的水平,性能已經超過了 Gemini 2.5 Pro。
1.關注點:主打“快”與“省”
這次 xAI 給它定位的非常另類。可以說,它和 GPT-5、Claude Sonnet 4 的定位完全不同:不但沒有費力氣證明自己能推理多復雜的問題,反而致力于成為工程師日常寫代碼的「快手助手」。
這款全新的推理模型 Grok Code Fast 1,主打 “快”與“省”。它不僅專為 agentic coding(代理式編程) 打造,并在官網博文中號稱是目前市面上響應速度最快的模型。
小編耐心看完了他們的測試圖例后,只能說心情是這樣嬸的——
(聲明:僅用于本文章,侵刪)
簡直就如同《唐人街探案1990》中,秦福與阿鬼街上初遇時,對阿鬼功夫的吼破喉嚨的稱贊:“豹的速度啊啊啊啊~”
才過了三天,它就已經成為許多人的明顯選擇 它不僅速度更快,而且功能更強大,結果也非常有希望。
為什么值得關注?小編認為,主要有三個點。
- 速度爆表:在你還沒讀完模型的第一段推理日志時,它可能已經調用了幾十個工具。
- 緩存優化:在部分合作平臺上,prompt 緩存命中率可超過 90%。
- 價格便宜得沒話說:輸入 $0.20 / 百萬 Token,輸出 $1.50 / 百萬 Token,緩存輸入更是只要 $0.02。
對比一下 GPT-5 的各版本模型的 API,誰便宜高下立見~ Grok 較標準版的GPT-5 簡直便宜了一個數量級!(可以說對標的是 GPT-5 mini,但據網友反饋,要比mini 更快更省!)
圖片
下圖,是 Grok Code Fast 1的表現,可以說跟編程模型幾大巨頭相比,吐 token 最快、價格卻最省的仔仔,遙遙領先!
圖片
- 吞吐速度(TPS):190
- SWE-Bench-Verified 得分:70.8%
- 實測價格 / 性能比優于 GPT-5、Claude Sonnet 4 等同類模型。
2.開發者實測反饋
在 Cursor 上,開發者 Danny Limanseta 僅用一天就做出了一個“戰斗模擬器”原型,非常魔性:
“它快到讓我改變了寫代碼的方式。分解任務、小步快跑迭代,比一次性丟個大 prompt 要高效得多。”

GitHub Copilot 產品負責人 Mario Rodriguez 也表示,Grok Code Fast 在早期測試中同時展現了速度與質量,是開發者的有力新選擇。
圖片
3.免費!如何體驗?
目前限時免費(據說截止到美時間9月10日),可在以下平臺試用:
GitHub Copilot、Cursor、Cline、Roo Code、Kilo Code、opencode、Windsurf
同時,xAI 還發布了 Prompt 工程指南,幫助開發者用更高效的方式調用模型。
對于提示詞/緩存優化技巧的朋友,小編也扒下來了地址:
??https://docs.x.ai/docs/guides/grok-code-prompt-engineering??
4.xAI 為什么劍走偏鋒?
那么,為什么 xAI 要推 Grok Code Fast 1?小編認為主要還是 GPT-5/Gemini 2.5 Pro/Claude4 Sonnet 本身面臨著一個巨大的現實缺口:
- 頂級模型(GPT-5、Claude Sonnet 4、Gemini Pro):強大,但昂貴、延遲高。適合做戰略級任務,不適合日常高頻調用。
- 輕量模型(GPT-4o-mini、Claude Haiku):便宜、快,但經常「不靠譜」,復雜代碼邏輯或多輪修復就容易翻車。
然而,絕大多數程序員的日常任務,并不總是需要 GPT-5 的「滿功率大腦」。
更多時候,我們的日常其實是:加個函數、修個 bug、解讀 pull request……這些更需要的是 穩定 + 快速響應。
所以,這一塊的市場就短暫的被忽視掉了: “不一定最聰明,但夠快、夠穩、夠便宜” 的模型。
多說一嘴,xAI 還透露了下一步計劃,稱 Grok Code Fast 系列將持續快速迭代,新版本會支持:
- 多模態輸入
- 并行工具調用
- 更長上下文
大家可以進一步期待下。
5.網友炸鍋了:誰是世界上最好的編程模型
國外的 GPT-5、Claude 4、Gemini 2.5 Pro,國內的 Qwen、Kimi K2 很多編程模型都在今年涌現了出來。這次 xAI 的 Fast 1 推出后,迅速在各個社區引發了最好的編程模型的爭論。
正如這個引戰帖子:
我預算緊,開發經驗也有限。做 Kotlin 安卓開發的話,你會推薦 grok code、gpt5 還是 qwen?
不少網友絲毫不給Grok Code留情面,直接建議了GPT-5:
就我的經驗,GPT-5 是最好的,Grok 連 Opus 4.1 都比不上。
自從用了 GPT-5,我很少需要在代碼改動后再讓它修復錯誤。而 Claude 的任何版本對我來說幾乎都是相反體驗。
最省錢的用法是:復雜邏輯我用 GPT-5 來寫,比如應用的核心運行機制;
而細節打磨、組件增刪、字符串處理、一些不涉及復雜推理的地方,我就用 Grok Code Fast 1。
我試過 Qwen3 Code,它在 Python 上還行,但對整個代碼庫上下文的理解很弱。
GPT-5 Mini 也能用,大概和 Sonnet 3.5 一個水平,不差但也不算強。考慮到價格,我還是更偏向 Grok Code Fast 1,它略勝一籌。
另一位網友則表示同意:表示 Grok 在測試中并未達到頂級編碼模型的可信度。
圖片
那么到底怎么用 Grok Code Fast 1 呢?
有幾位網友發現,對于“編排”類任務,還是非常給力的。
我用它做 Orchestrator,效果不錯。但寫代碼的時候就不太行了,失敗挺多,代碼也容易搞壞。
還有朋友說在抽卡邏輯的游戲代碼任務中,表現出來自我調適的能力
我在做一個帶復雜「抽卡、出牌」邏輯的游戲,前后端之間出現了一些競態條件。Grok 提了調試點,還自己找到了錯誤。我挺驚訝的!
此外,一位網友還對 Grok Code 輸出的代碼質感提出了質疑。“和大多數 xAI 的產品一樣,它還不夠精細。”
感覺有點倉促上線了,功能是有,但不夠“優雅”,不像 Claude 或 GPT 那樣有品質感。Grok Web 和他們其他項目也是一樣的。很酷,但一旦日常使用,就能感受到它是在高壓下做出來的,打磨不足。
所以綜合看來,復雜的工程任務,還是選擇 GPT-5 吧,如果追求質感,Sonnet 4 可能更有感覺。
但,對于日常的任務,Grok Code 絕對有一席之地。
本文轉載自??51CTO技術棧??,作者:云昭

















