Anthropic最近的論文指出了MCP最大的問題——他們的AI代理在還沒開始讀取用戶請求之前,就要先處理150,000個tokens只為加載工具(tool)定義。而實現同等功能,實際上只需要2,000個tokens——減少了98.7%。這點至關重要。隨著AI代理從原型走向生產,將其連接到幾十個MCP(ModelContextProtocol)服務器、上百個工具已成常態。但一個顯而易見的問題被忽略了:每一個工具定義都會預先加載進contextwindow,而且每一個中間結果都會...
如果你曾嘗試自己搭一套RAG(RetrievalAugmentedGeneration,檢索增強生成),你大概懂那種痛:要管理embeddings(向量嵌入)、vectordatabases(向量數據庫)、把文本正確地chunking(切分),還得確保一切能和你的模型順暢協作、又不至于燒錢。好吧,Google直接把這攤麻煩全給你搞沒了。他們悄悄地在GeminiAPI里推出了全新的FileSearchTool,由它來替你處理RAG的所有繁瑣工作。你把文件丟進去,提出問題,它就把剩下的事都搞...
所謂Agenticsystems,無論用于工具使用還是推理,都是通過prompts來引導行動。但prompts是靜態的,它們只給出步驟,卻無法自我改進。真正的agentictraining源自系統在動態環境中的學習、適應與協作方式。在agenticarchitecture中,每個子agent的目標不同,這意味著單一算法無法一體適用。要讓這類系統更有效,我們需要一個整合reasoning、reward與realtimefeedback的完整訓練架構。一個典型的agenticsystem訓練架構包含多個相互...
基于模擬FAQ文檔構建的knowledgegraph今天我帶來一個基于knowledgegraph(用第一部分介紹的方法構建)和LLM(這里用的是Gemma3–4bitqat,與之前相同)的簡易QuestionAnswer(QA)System。我選擇使用Gemma3–4b,是因為它體量足夠小,可以在普通筆記本上運行,同時又非常擅長遵循指令。在這篇博客中,我們會用一個關于假想智能手機的FAQ文本作為樣例,利用上一篇文章中的代碼(同一倉庫)為其生成knowledgegraph,然后搭建一個系...
很多RAG系統失敗,并不是因為LLM不夠聰明,而是因為它們的架構太簡單。它們試圖用線性的一次性方式,處理一個本質上循環、多步驟的問題。許多復雜查詢需要推理、反思,以及何時行動的聰明決策,這與我們面對問題時如何檢索信息非常相似。這正是RAG流水線中引入“agent驅動行為”的用武之地。下面看看一個典型的深度思考RAG流水線長什么樣……DeepThinkingRAGPipeline(CreatedbyFareedKhan)Plan:首先,agent將復雜用戶查詢拆解...
2025-11-05 07:37:40 396瀏覽 0點贊 0回復 0收藏
在這個項目中,我構建了一個由AI驅動的聊天機器人,它可以將自然語言問題轉換為SQL查詢,并直接從真實的SQLite數據庫中檢索答案。借助LangChain、HuggingFaceEmbeddings和Chroma向量存儲,這個應用展示了如何通過RetrievalAugmentedGeneration(RAG,檢索增強生成)工作流,把非結構化的用戶輸入與結構化數據連接起來——配有FastAPI后端與Streamlit前端界面。引言:為什么是TexttoSQL?想象一下:你在會議上,經理突然問道:“...
2025-11-05 07:37:22 1261瀏覽 0點贊 0回復 0收藏
如果你還在手動把上下文貼給AI,或者把數據庫schema復制給Cursor幫它理解項目,你真的做多了。我最近在折騰這些新的MCP工具,哇——它們徹底改變了我用AI搭建項目的方式。來分析下為什么——以及為什么這些工具能讓AI從“看著挺可愛”變成“真的有用”。等等,MCP到底是什么?“MCP”是指ModelContextProtocol(模型上下文協議)——先別走神,聽我說完。把它想象成AI領域的USB?C。你把它“插上”,然后它就……能用。不需要反...
2025-11-05 07:36:51 562瀏覽 0點贊 0回復 0收藏
在LangGraph中基于結構化數據源構建在LangGraph中構建不同的agent系統Imagebyauthor如果你剛開始搭建不同的agentic系統,一個有趣的切入點是比較單智能體工作流與多智能體工作流,或者說更靈活的系統與更可控的系統之間的差異。本文將幫助你理解什么是AgenticAI,以及如何用LangGraph和LangSmithStudio構建agentic系統。我們會用兩種不同的架構構建一個researcher,以便對比結果、判斷哪種做得更好。本文涉及的資源在這里(??...
2025-11-05 07:35:53 424瀏覽 0點贊 0回復 0收藏
大型語言模型(LLMs)正在改變我們與技術的互動方式,從聊天機器人到代碼助手,功能無所不包。但要高效運行這些模型可不是件小事,尤其是在需要速度、可擴展性和高吞吐量應用的穩定性時。如果你一直在用Ollama進行本地LLM實驗,現在想轉向vLLM以獲得生產級性能,這篇文章的主要目的是講解這兩個框架的區別,探討選擇正確框架的重要性,并提供一步步的指導。1.為什么選擇合適的LLM框架很重要把部署LLM想象成開餐廳。如果只是給小...
2025-11-04 23:12:40 672瀏覽 0點贊 0回復 0收藏
我一直覺得很神奇:大多數AI系統只要你一停止和它們對話,就會把一切都忘光。你喂給它們facts、context、chatlogs——會話一結束,噗的一下,全沒了。這一直是“intelligent”agents的最大瓶頸。后來我發現了Graphiti,感覺終于有人把knowledgegraphs和AImemory連接到了一起。如果這聽起來有點高深,別擔心,我們一步步來。Graphiti是什么把Graphiti想象成一個創建并維護動態知識網絡的工具。每一條小事實——比如“Kendra喜歡A...
2025-10-27 06:31:52 1170瀏覽 0點贊 0回復 0收藏
本文通過RetrievalandStructuring(RAS)范式理解精準推理與領域專長,并附實現示例LargeLanguageModels(LLM,大型語言模型)在文本生成和復雜推理方面展現了卓越能力。但它們并不完美。當LLM用于真實世界場景時,會面臨多種挑戰:有時會出現“幻覺”,有時會給出過時的答案。為了解決這些問題,引入了RetrievalAugmentedGeneration(RAG)。RAG先從外部文檔檢索相關信息,以此為LLM的回答“接地氣”,顯著減少幻覺。看起來是個...
2025-10-27 06:30:48 630瀏覽 0點贊 0回復 0收藏
先來澄清當下AI討論中最常見的一處混淆。你可能經常看到大家把“AIagent”和“agenticAIsystem”當成同一件事。但事實是:它們有關聯,但并不相同就像把微波爐稱作“廚師”。它確實能加熱食物,但它不會幫你策劃一場晚宴。FriendLink同理,AIAgents與AgenticAISystems在“做什么”、“如何思考”以及“自主性的范圍”上都不一樣。所以,端杯咖啡?,我們來看看這兩者究竟有何區別——以及為什么理解這點對構建或使用現代AI系統...
2025-10-27 06:30:33 1106瀏覽 0點贊 0回復 0收藏
我最近一直在探索一個叫Langflow的工具。如果你曾經試著把LLMs、APIs和各種工具連起來,你就會知道那種挫敗感——太亂了。一大堆樣板代碼,好多問題像“為什么這個不工作”,通常花太多時間在設置上。Langflow試圖讓這一切變得更容易。它基本上就是一個AI工作流的視覺構建器。拖動東西,連接塊,突然你就有一個agent,能執行任務比如抓取URL或解決數學問題。當你準備好了,你可以直接把它跑成一個API。初印象那么你到底能得到什...
2025-10-16 07:17:32 2809瀏覽 0點贊 0回復 0收藏
大家好!今天我們來聊聊如何給AI代理(agenticAI)加上“安全鎖”,避免它因為幻覺(hallucinations)、安全漏洞或者惡意指令而闖禍。這篇文章會帶你一步步了解如何通過分層防御(layereddefense)來保護AI系統,確保它既強大又靠譜。作者FareedKhan分享了一個超實用的框架,叫做Aegis,用來給AI加上三層防護:輸入、計劃和輸出。我們會把整個過程拆解得明明白白,還會提供代碼和實戰案例,讓你看清楚怎么從一個“裸奔”的AI,...
2025-10-16 07:17:17 1102瀏覽 0點贊 0回復 0收藏
如果你用過大型語言模型(LLMs),你就會知道它們是無狀態的。如果沒用過,可以把它們想象成沒有短期記憶的東西。舉個例子,就像電影《記憶碎片》(Memento)里的主角,他總是需要靠便利貼上的信息來提醒自己發生了什么,拼湊出下一步該做什么。要和LLMs對話,我們每次互動時都需要不斷提醒它們之前的對話內容。實現我們所說的“短期記憶”或狀態其實很簡單。我們只需要把之前的幾組問答對抓出來,包含在每次調用里就行。但長期...
2025-10-16 07:14:57 1310瀏覽 0點贊 0回復 0收藏
一個實用的文本分割指南,包含代碼、圖表,以及對Chonkie、LangChain和LlamaIndex的輕量介紹上下文窗口變大了。有些模型一次能處理整章內容。這看似自由,但并未消除權衡。分塊依然決定模型讀什么,檢索返回什么,以及每次調用你得花多少錢。分塊說起來簡單,做起來容易出錯。你需要把長文本切成模型或嵌入器能處理的片段。聽起來像是在調整大小,但實際上是關于相關性。好的分塊要小到足夠具體,大到能獨立存在。做到這一點,...
2025-10-16 07:13:53 1100瀏覽 0點贊 0回復 0收藏
引言我們之前在不同文章中分別探討了兩個強大的框架:UltralyticsYOLO11,一個高精度的對象檢測模型,以及Ollama,一個用于部署LLM模型的框架。但如果我們把這兩者結合起來,打造一個超精準的OCR系統,會怎么樣呢?今天我就要帶你一步步實現這個目標!核心思路是采用兩階段處理:首先用預訓練的UltralyticsYOLO11模型檢測并定位文本區域(比如車牌),然后將這些區域裁剪出來,傳遞給Ollama的視覺語言模型進行精準的文本提取。...
2025-09-30 06:46:40 2732瀏覽 0點贊 0回復 0收藏
RetrievalAugmentedGeneration(RAG)現在是最受歡迎的框架,用來構建GenAI應用。企業和組織特別喜歡它,因為它能讓他們用自己的專有數據來回答用戶問題。它讓LLM給出準確、及時、和用戶問題相關的答案。從我這幾年構建RAG應用的經驗來看,你的響應質量很大程度上取決于檢索到的上下文。而提升RAG檢索上下文的一個關鍵方式,就是把數據切分成合適的大小,選擇合適的embedding模型,還有選一個有效的檢索機制。Embeddings是LLMs的...
2025-09-30 06:46:12 1151瀏覽 0點贊 0回復 0收藏
想象一下,你打開終端,輸入:“撤銷我上次的提交,但保留更改在暫存區。”不用上Google搜。不用翻StackOverflow帖子。不用在標簽頁間來回切換找那個被遺忘的Git命令。你的終端直接明白你的意思,給你正確的答案。這正是GitHubCopilotCLI的承諾,它剛進入公測階段。如果你用過VSCode或JetBrains里的GitHubCopilot,你知道AI驅動的自動補全有多好用。但這次,AI進駐了你的命令行界面——開發者們生活和呼吸的地方。這改變了一切...
2025-09-30 06:45:25 2104瀏覽 0點贊 0回復 0收藏
現代AI聊天機器人常常依賴RetrievalAugmentedGeneration(RAG),也就是檢索增強生成技術。這種技術讓機器人能從外部數據中提取真實信息來支撐回答。如果你用過“與你的文檔聊天”之類的工具,你就見過RAG的實際應用:系統會從文檔中找到相關片段,喂給大語言模型(LLM),讓它能用準確的信息回答你的問題。RAG大大提升了LLM回答的事實準確性。不過,傳統RAG系統大多把知識看成一堆互不關聯的文本片段。LLM拿到幾段相關內容后,得...
2025-09-19 07:11:50 2232瀏覽 0點贊 0回復 0收藏