Claude開大!百萬 Token 上線,Sonnet 4 將上下文擴(kuò)至 1M
Anthropic宣布,Claude Sonnet 4的上下文長度,現(xiàn)在達(dá)到了史無前例的100萬個(gè)token。
圖片
這項(xiàng)功能已經(jīng)正式上線Anthropic API,并同步登陸Amazon Bedrock,Google Cloud的Vertex AI也即將支持。
相比之前的20萬個(gè)token,這次擴(kuò)展是5倍的飛躍。換句話說,Claude Sonnet 4現(xiàn)在可以一次性處理超過七萬五千行代碼,或幾十篇學(xué)術(shù)論文,無須拆分,無須反復(fù)輸入。
上下文窗口的擴(kuò)大,顯著擴(kuò)展了大語言模型可處理任務(wù)的規(guī)模。
過去常見模型上下文在幾千至數(shù)萬字,現(xiàn)在可覆蓋整套工程級(jí)代碼、成百頁文檔及對(duì)話歷史。
AI開始“理解全局”,不僅是處理局部
百萬token帶來的,不只是模型“記憶更久”,而是徹底提升了處理復(fù)雜任務(wù)的能力。
一位開發(fā)者現(xiàn)在可以將整套代碼工程上傳給Claude,包括源碼、測(cè)試、文檔,Claude可以一次性加載全部內(nèi)容,并且理解模塊之間的架構(gòu)關(guān)系。
這意味著,Claude不僅能幫你“寫一段函數(shù)”,還能指出某個(gè)類的設(shè)計(jì)在整體系統(tǒng)中是否合理,甚至發(fā)現(xiàn)跨文件的冗余和依賴錯(cuò)誤。
法律、科研、工程等領(lǐng)域同樣受益。
研究人員可以一次性讓Claude讀取上百份論文或技術(shù)文檔,它能識(shí)別術(shù)語間的交叉引用、辨別觀點(diǎn)之間的邏輯關(guān)系,并提供高質(zhì)量的整合和總結(jié)。
對(duì)于構(gòu)建AI代理的開發(fā)者來說,這也意味著Claude能夠維護(hù)多輪對(duì)話的一致性與連貫性。
從前,調(diào)用工具時(shí)每次都得重新輸入規(guī)則;現(xiàn)在,你可以把所有API文檔、工具說明和歷史調(diào)用記錄打包上傳,Claude能準(zhǔn)確回憶、無縫對(duì)接。
這不僅讓AI更聰明,更讓AI更像人類合作者:理解語境、知道全貌、反應(yīng)一致。
圖片
Claude Sonnet 4的百萬token功能,定價(jià)也有所變化。
在200K以內(nèi)的輸入,每百萬token收取3美元,輸出為15美元;而超過200K的部分,輸入為6美元、輸出為22.5美元。
為了降低負(fù)擔(dān),Anthropic提供了prompt緩存與批量處理機(jī)制,最多能再節(jié)省50%的成本。
這項(xiàng)長上下文功能目前處于公測(cè)階段,面向API使用者中的Tier 4等級(jí)與定制客戶開放。
除了Anthropic平臺(tái)本身,Amazon Bedrock已支持該功能,Google Cloud平臺(tái)也將很快上線。
未來,這項(xiàng)能力還將推廣到Claude的其他產(chǎn)品線。
via https://www.anthropic.com/news/1m-context


































