基于模擬FAQ文檔構建的knowledgegraph今天我帶來一個基于knowledgegraph(用第一部分介紹的方法構建)和LLM(這里用的是Gemma3–4bitqat,與之前相同)的簡易QuestionAnswer(QA)System。我選擇使用Gemma3–4b,是因為它體量足夠小,可以在普通筆記本上運行,同時又非常擅長遵循指令。在這篇博客中,我們會用一個關于假想智能手機的FAQ文本作為樣例,利用上一篇文章中的代碼(同一倉庫)為其生成knowledgegraph,然后搭建一個系...
所謂Agenticsystems,無論用于工具使用還是推理,都是通過prompts來引導行動。但prompts是靜態的,它們只給出步驟,卻無法自我改進。真正的agentictraining源自系統在動態環境中的學習、適應與協作方式。在agenticarchitecture中,每個子agent的目標不同,這意味著單一算法無法一體適用。要讓這類系統更有效,我們需要一個整合reasoning、reward與realtimefeedback的完整訓練架構。一個典型的agenticsystem訓練架構包含多個相互...
AgenticRAG系統可以被視為一個“高維向量空間”,其中每個維度都對應一次設計決策,例如promptengineering、agent協同、retrieval策略等。手動調優這些維度以找到“正確組合”非常困難,而且上線后的未見數據往往會打破測試時有效的配置。一個更好的方法是讓系統學會“自我優化”。一條典型的、能“自我進化”的AgenticRAG流水線,遵循如下思考過程:SelfImprovingAgenticRAGSystem(CreatedbyFareedKhan)一個由“專家型代理(sp...
有那么一個夜晚,我差點關掉編輯器,開始懷疑自己是否還屬于這個行業。我做了所有“正確”的事。多年經驗。整潔的提交。扎實的評審。然而我眼看著更年輕的開發者交付功能的速度快出一倍,僅僅因為他們自帶一種AIfirst的工作方式,而我還在把AI當成更聰明的搜索框。他們在和Agents結對。我在復制—粘貼答案。那一刻,我決定不再假裝這只是個小趨勢,而是重塑自己的工作方式。這篇文章講的是,我如何把AI從一個吵鬧的聊天窗口變成...
學習如何借助Stanford的AgenticContextEngineering構建能自我糾錯并自動優化性能的自適應數據庫查詢系統。作者使用AI生成的圖片當下大多數TexttoSQL系統采用多智能體架構與單體式提示詞(monolithicprompts)。它們通過一串復雜的、分工明確的智能體來生成可運行的查詢——一個負責schema分析,另一個負責查詢規劃,第三個負責SQL生成。這些單體系統確實能用。它們可以把“showmetopcustomers”變成可執行的SQL。但結果常常低效...
2025-11-13 00:29:05 740瀏覽 0點贊 0回復 0收藏
在這個視頻中我介紹了如何給智能體添加記憶,以及中間件和工具的使用方法。記憶對于智能體來說,記憶(memory)非常關鍵——它讓智能體能夠記住過去的交互、從反饋中學習、并根據用戶偏好進行調整。當智能體處理越來越復雜的任務并與用戶多次交互時,這種能力對效率和用戶體驗都至關重要。??短期記憶(Shorttermmemory)允許應用程序在單個線程或會話中記住先前的交互。一個線程(thread)組織了一次會話中的多輪交互,類似于電...
2025-11-13 00:28:38 434瀏覽 0點贊 0回復 0收藏
你是否認真考慮過RAG流水線中的文檔隱私?這篇文章也許能提供一個有幫助的方向。。為什么“StandardRAG→CloudSearch”在隱私上行不通StandardRAG的做法是把明文文檔塞進prompt。對于企業合同、病歷或個人筆記等輸入,這是完全不可行的——從設計上你就在暴露敏感數據。ParametricRAG(PRAG)試圖把知識“烘進”LoRA權重,但在實踐中碰上兩堵墻:運維負擔與時延。每份文檔都需要各自的syntheticQ&A生成以及定制化的LoRA微調。在線...
2025-11-13 00:27:48 241瀏覽 0點贊 0回復 0收藏
Prompts確立意圖。Context選擇事實、歷史和工具輸出,讓AI在長任務中保持連貫。在這個領域的第一幕里,我們沉迷于字詞斟酌。微調一個動詞,挪一條約束,看看模型會不會聽話。它常常奏效,足以讓人以為這是一門手藝。直到問題變得更長、更亂、更多步驟,一條安靜的真相浮出水面。措辭重要,但模型看到什么更重要。Promptengineering關注“如何把話問好”。Contextengineering關注此刻該把哪些信息擺上臺面。這包括指令、檢索到的...
2025-11-13 00:26:38 296瀏覽 0點贊 0回復 0收藏
阿里云提供的“OpenAI兼容接口”主要是為了支持標準OpenAIAPI調用。但是并不是完全兼容:尤其是當我們使用下面的方式期待模型產生結構化輸出時:frompydanticimportBaseModel,FieldclassMovie(BaseModel):"""Amoviewithdetails."""title:strField(...,description"Thetitleofthemovie")year:intField(...,description"Theyearthemoviewasreleased")director:strField(...,description"Thedirectorofthemovie")rating:floatField...
2025-11-06 07:30:23 758瀏覽 0點贊 0回復 0收藏
構建一個可用于生產的RAG系統,需要一系列深思熟慮且迭代的步驟。一切從清理和準備數據開始,接著測試不同的切分策略(邏輯切分與傳統切分),以找到最適合你業務場景的方法。然后是匿名化,通過去除敏感或無關的細節來減少幻覺。為了進一步提升檢索器的性能,可以構建子圖(Subgraph),讓檢索更聚焦于最相關的信息,同時過濾掉噪聲。在檢索層之上,我們引入一個由LLM驅動的規劃與執行系統。它就像一個智能體(Agent),能夠從...
2025-11-06 07:28:55 334瀏覽 0點贊 0回復 0收藏
當文檔包含復雜表格、數學公式或多欄排版時,傳統OCR工具往往會產出雜亂內容,需要手動整理。就在上周,我逛GitHub時看到了百度新近開源的PaddleOCRVL0.9B。老實講,看到它只有9億參數時,我第一反應是:“哦,又一個小模型來湊熱鬧?”但出于職業好奇,我還是要問一句:它能打嗎?結果完全把我震住了。這不只是OCR,這是文檔理解的一次量子飛躍PaddleOCRVL遠超我的預期。它在全球權威評測榜OmniDocBenchv1.5的綜合性能中拿到92...
2025-11-06 07:28:38 1004瀏覽 0點贊 0回復 0收藏
人工智能(AI)正在從簡單的聊天機器人進化成自主代理(autonomousagents)——這些AI系統能夠進行推理、規劃并采取行動來實現目標。構建這樣的AgenticAI應用需要扎實的編程基礎,以及對正確工具、庫和框架的了解。在本文中,我們將探討AgenticAI的編程基礎,帶你了解入門所需的核心技能和技術。1.Python—AI開發的支柱Python因其簡單易讀、豐富的庫生態系統,依然是AI開發的首選編程語言。為什么選擇Python?擁有海量的AIML庫...
2025-10-23 07:50:47 1118瀏覽 0點贊 0回復 0收藏
一個使用最新LangChain+LangGraphAPIs創建多步驟、有狀態LLM管道的實踐指南引言大型語言模型(LLMs)功能強大——但在現實世界的系統中使用它們通常需要結構。你很少只需要調用一次模型;你需要多步驟推理、有狀態的數據傳遞和可靠的編排。這正是LangGraph為LangChain帶來的東西。它是一個用于定義結構化、有狀態工作流的框架,每個步驟都建立在上一步的基礎上。在本指南中,你將學習如何使用LangChain和LangGraphAPIs構建一個...
2025-10-23 07:49:43 3302瀏覽 0點贊 0回復 0收藏
分塊(Chunking)是構建高效RAG(檢索增強生成)系統的核心。從固定分塊、遞歸分塊到語義分塊、結構化分塊和延遲分塊,每種方法都在優化上下文理解和準確性上扮演了關鍵角色。這些技術能大幅提升檢索質量,減少“幻覺”(hallucination),并充分發揮你的RAGpipeline的潛力。在我近一年構建可擴展AI系統的經驗中,我發現RAG系統的成功大多取決于檢索(retrieval)。你如何切分和存儲文檔——也就是分塊(chunking)——往往是成...
2025-10-23 07:48:05 974瀏覽 0點贊 0回復 0收藏
在最近結束的OpenAIDevDay上,SamAltman宣布推出AgentKit,這是一個全新工具包,專門為開發者設計,讓構建和部署AIAgent變得更簡單。過去幾年,agenticsystems和自動化成了AI領域最激動人心的方向之一。你可能用過或聽說過像n8n、Langchain或者Make這樣的工具。它們很厲害,但我也能理解為啥有些人不太敢用。這些工具復雜,需要不少技術背景知識,而且擴展起來成本不低。AgentKit是OpenAI的一次嘗試,目的是把原本復雜的過程變...
2025-10-13 07:09:26 2771瀏覽 0點贊 0回復 0收藏
如果你用過大型語言模型(LLMs)干點正經事,你肯定知道那種等待的煎熬。你輸入一個問題,按下回車,然后……啥也沒有。就一個轉圈的光標在那晃,直到第一個詞終于蹦出來。這種延遲叫“首次令牌時間”(timetofirsttoken,TTFT),真是讓人抓狂。現在,有個叫LMCache的項目。它是開源的,簡單說就是給LLMs提速的神器。LMCache是干啥的?LLMs老干重復的活兒。每次你給它一段文本,它都會構建一個叫KVcache(鍵值緩存)的東西。你...
2025-10-13 07:09:02 1189瀏覽 0點贊 0回復 0收藏
通過Cypher實現LLM驅動的Neo4j智能在當今這個數據驅動的世界里,信息量巨大、動態變化且往往是非結構化的,挖掘有意義的關聯變得至關重要。知識圖譜(KnowledgeGraphs)提供了一種結構化的方式來表示實體及其關系,讓機器不僅能處理原始數據,還能理解上下文。它們已經成為智能系統的基石,驅動了語義搜索、推薦引擎、問答系統和企業決策——通過將數據點連接成一個機器可理解的網絡。但隨著知識圖譜的規模和復雜性增加,它們常...
2025-10-13 07:08:33 1711瀏覽 0點贊 0回復 0收藏
RetrievalAugmentedGeneration(RAG)現在是最受歡迎的框架,用來構建GenAI應用。企業和組織特別喜歡它,因為它能讓他們用自己的專有數據來回答用戶問題。它讓LLM給出準確、及時、和用戶問題相關的答案。從我這幾年構建RAG應用的經驗來看,你的響應質量很大程度上取決于檢索到的上下文。而提升RAG檢索上下文的一個關鍵方式,就是把數據切分成合適的大小,選擇合適的embedding模型,還有選一個有效的檢索機制。Embeddings是LLMs的...
2025-10-13 07:08:13 1297瀏覽 0點贊 0回復 0收藏
學習如何結合Neo4j知識圖譜和LangChain,打造精準、可解釋、適合生產環境的RetrievalAugmentedGeneration(RAG)系統。RetrievalAugmentedGeneration(RAG)已經迅速成為讓LargeLanguageModels(LLMs)在生產環境中真正發揮作用的首選架構。RAG不再僅僅依賴LLM的內部記憶,而是將其與外部知識源連接起來。雖然大多數教程展示的是使用Pinecone、Weaviate或FAISS等向量數據庫的RAG,但在現實世界的問題中,單靠語義相似度往往不夠。你需...
2025-09-26 07:01:31 3668瀏覽 0點贊 0回復 0收藏
你有沒有納悶過,為什么你的RAG系統總是返回一堆無關的結果,或者漏掉顯而易見的答案?你不是一個人!很多開發者一開始用vectorsearch,然后一臉懵地發現,他們的“智能”AI連一個簡單的產品代碼都找不到。如果你試過搭建一個RetrievalAugmentedGeneration(RAG)系統,可能也撞過我一樣的南墻。你的chatbot有時候回答得很棒,但有時候完全答非所問,返回一些概念上相似但實際沒用的信息。問題出在哪兒?大部分RAG教程只關注那些...
2025-09-26 06:55:54 1392瀏覽 0點贊 0回復 0收藏