精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

n8n + AI Agent 提示工程:2025 年最有效的實操技巧

人工智能
根據 Anthropic 的 Context Engineering 研究,在 2025 年,真正重要的不是“prompt engineering”,而是“context engineering”。問題不再是“如何打造完美的 prompt”,而是“哪種 context 組合能引發期望的行為”。

為什么大多數 Prompting 方法會失效

根據 Anthropic 的 Context Engineering 研究,在 2025 年,真正重要的不是“prompt engineering”,而是“context engineering”。問題不再是“如何打造完美的 prompt”,而是“哪種 context 組合能引發期望的行為”。

我會帶你走一遍當前研究(Anthropic、OpenAI、Google、Wharton)對 AI agent prompting 的結論——以及如何在 n8n 工作流中具體落地。

你將學到:

  • System Message vs User Prompt(以及為什么錯誤的分離會讓 token 成本翻倍)
  • 2025 年真正有效的五大核心技巧(有研究背書)
  • 高級模式(Chain-of-Thought、RAG、Structured Outputs、Tool Use)
  • 為什么應該與模型一起生成 prompt,而不是手工堆砌
  • 模型相關注意事項(只講實際相關的)
  • 生產級模式(測試、錯誤處理、token 優化)

復制模板的陷阱

我經常見到:有人在 Reddit 上找到一個“完美”的 prompt 模板,復制到 AI Agent Node 里,然后期待它“魔法生效”。

劇透:不會。

復制模板失敗的原因:

  • Context mismatch:模板是為完全不同的用例、數據、工具寫的
  • Model differences:模板對 Claude 3 有效,而你用的是 GPT-4o-mini
  • Over-complexity:模板有 500 行,因為作者想覆蓋所有邊界情況
  • Under-specification:模板過于通用,對任何事都不夠好

Anthropic 的 Prompt Engineering 指南強調“找到合適的高度”(right altitude)——對指導足夠具體,但又為推理留有空間。模板對你的特定場景來說,幾乎總是在錯誤的高度。

第二個問題:Prompt 過于復雜

“越多越好”的思路會帶來巨大問題:

  • Ignored instructions:當 context 超過 800+ 行,模型會開始忽略指令——Context Engineering 研究顯示 LLM 有“有限注意力預算”
  • Increased latency:更多 tokens = 更慢響應
  • Higher costs:每個額外 token 都要花錢
  • Maintenance nightmare:800 行 prompt 幾乎無法調試或優化

解決方案:與模型一起生成 prompt

真正的游戲規則改變者是:讓模型為你寫 prompt。

不要花數小時打磨 prompt,而是給模型:

  • 你的目標(agent 要做什么)
  • 示例(輸入/輸出對)
  • 約束(不該做什么)

模型會生成為你場景優化的 prompt。你測試、與模型迭代、再細化。

為什么有效:模型最了解自己的“偏好”。它知道哪種表述、結構、示例最有效。

稍后我會展示具體做法。

基礎:n8n 中的 System Message 與 User Prompt

n8n 的 AI Agent prompting 中最基礎也最常見的錯誤:混淆 System Message 和 User Prompt。

在 AI Agent Node 中,有兩個不同的 prompt 區域:

System Message(Options → System Message):

  • 定義 agent 的持久“DNA”
  • 每次請求都會發送
  • 幾乎不變/不應該頻繁更改
  • 包含:role、tools、workflow、constraints

User Prompt(主輸入):

  • 只針對“本次請求”的具體任務
  • 來自 Chat Trigger、Webhooks 或前置節點
  • 每次請求都變化
  • 只應包含本次的具體任務

圖片圖片

為什么重要:Token 經濟學與 Prompt Caching

兩者都會隨每次 API 調用發送。但正確分離對成本和性能都至關重要:

錯誤做法(把一切都塞進 User Prompt):

"You are Senior Support Engineer. Tools: search_docs, create_ticket.
Use search_docs first. Max 150 words. Friendly.
User question: {{$json.message}}"

若每天 1,000 次請求、每次 400 tokens: = 400,000 個冗余 tokens = 以 Claude Sonnet($3/M)計:$1.20/天 = 每月 $36 的純冗余 context

正確做法:

System Message(只定義一次):

You are Senior Support Engineer.
TOOLS:
- search_docs(query): Search Product Docs
- create_ticket(title, priority): Create Support Ticket
WORKFLOW:
1. FAQ → search_docs
2. Complex Issue → create_ticket
BEHAVIOR:
- Max 150 words
- When uncertain: Create ticket, don't guess

User Prompt 僅為:{{$json.message}}

= 每次 50 tokens 而非 400 = 節省:每天 350K tokens = 每月約 $31.50(以 Claude Sonnet 計)

Prompt Caching:為什么 System Message 應盡量保持靜態

Anthropic 和 OpenAI 提供 Prompt Caching——System Message 會被緩存,不必每次都重新處理。可將延遲降低 50–80%,對已緩存的 tokens 成本最高可降至 10%。

但:一旦你更改 System Message,緩存就會失效。因此:

  • 設計 System Message 為靜態:基礎角色、工具、工作流邏輯
  • 用 User Prompt 承載可變信息:動態數據、具體任務
  • 僅在出現重大變更時更新 System Message:新增工具、工作流邏輯改變

緩存影響示例:

無緩存: 請求 1:500 tokens 的 System Message = $0.0015 請求 2:500 tokens 的 System Message = $0.0015 請求 1000:500 tokens 的 System Message = $0.0015 總計:1,000 次請求 $1.50

有緩存(System Message 保持穩定): 請求 1:500 tokens 的 System Message = $0.0015(寫入緩存) 請求 2:500 tokens 緩存命中 = $0.00015(便宜 90%) 請求 1000:500 tokens 緩存命中 = $0.00015 總計:~$0.15/1000 次請求 = 90% 節省

Dynamic System Messages:強大但要謹慎

你可以用 n8n Expressions 讓 System Message 動態化——但要注意緩存:

You are Support Engineer for {{$('Get Config').item.json.company_name}}.

PRODUCT: {{$('Get Config').item.json.product_description}}
TONE: {{$('Get Config').item.json.support_tone}}

適用場景:多租戶系統——一個工作流,多個客戶配置。

工作流:Webhook(Customer ID) → DB Lookup → AI Agent(動態 System Message) → Response

緩存權衡:動態 System Message 會破壞緩存——僅在必要時使用。

五大核心技巧:2024–2025 年研究給出的答案

來自 Anthropic、OpenAI、Google 在 2024–2025 的研究顯示:有一些對所有模型都有效的基本技巧。以下五條最重要:

圖片圖片

技巧 1:清晰與具體(“Altitude” 原則)

Anthropic 的 Prompt Engineering 指南稱之為“找到合適的高度”(right altitude)——既足夠具體以提供指導,又為推理保留靈活性。

“同事測試”:如果一個聰明的同事看不懂這條指令,AI 也不會懂。

反例:

Classify emails intelligently and accurately.

“intelligently” 是什么?有哪些類別?輸出格式是怎樣?

正例:

Classify emails into: sales, support, billing, general

URGENCY CRITERIA:
- high: contains "urgent", "asap", "immediately", "broken"
- medium: time-related request without extremity
- low: everything else
OUTPUT: JSON
{
  "category": "support",
  "urgency": "high",
  "confidence": 0.92
}

為何有效:

  • 消除歧義(明確只有四類)
  • 提供決策標準(非主觀)
  • 明確輸出格式(無需猜測)
  • 可度量(有 confidence 分數)

技巧 2:正向指令(質量提升 57%)

Bsharat 等(2024)研究顯示,正向指令明顯優于負向指令。將“不要做 X”改為“請做 Y”,平均帶來 57% 的質量提升。

負向指令為何失效:

  • 模型先要理解你“不想要”的
  • 再推斷你“想要”的
  • 這個兩步推理經常失敗

負向反例:

Don't be too wordy.
Don't use technical jargon.
Don't make assumptions about customer intent.

正向改寫:

Keep responses under 150 words.
Use plain language that a non-technical customer understands.
When customer intent is unclear, ask clarifying questions.

實際影響:

在生產環境的郵件分類 agent 中,負向指令(“不要誤判緊急請求”)造成 31% 的漏判。正向改寫(“凡含時間限制的請求一律標記為 urgent”)將漏判降至 8%。

技巧 3:Few-Shot Learning(示范勝于告知)

Few-shot 示例非常有效——但大多數人用錯了。

研究共識:

  • 大多數任務 2–5 個示例最優(更多幫助不大)
  • 示例要“多樣化”(avoid 相似堆砌)
  • 應包含 edge cases
  • Label bias 重要:Zhao 等(2021)顯示示例順序會影響結果

糟糕的 few-shot(過于相似):

EXAMPLES:
1."How do I reset my password?"→category:support,urgency:low
2."Where is the password reset option?"→category:support,urgency:low
3."I can't find password settings."→category:support,urgency:low

全是同一種問題。模型學不到邊界處理。

良好的 few-shot(多樣且含 edge cases):

Example 1 (Standard):
Input: "How do I reset my password?"
Output: {"category": "support", "urgency": "low", "confidence": 0.95}
Example 2 (Urgent):
Input: "URGENT: System down, can't access customer data!"
Output: {"category": "support", "urgency": "high", "confidence": 0.98}
Example 3 (Mixed Intent):
Input: "I want to upgrade my plan but also report a billing error."
Output: {"category": "billing", "urgency": "medium", "confidence": 0.78, "note": "Multiple intents detected"}
Example 4 (Edge Case - Unclear):
Input: "help"
Output: {"category": "general", "urgency": "low", "confidence": 0.45, "action": "request_clarification"}

為何有效:

  • 覆蓋不同場景(標準、緊急、混合、不清楚)
  • 示范如何處理邊界(低置信度 → 追問澄清)
  • 展示一致的輸出格式
  • 讓模型學習決策模式,而非僅做類別匹配

技巧 4:Constraints & Grounding(對抗幻覺)

AI agents 的大問題之一:hallucination(幻覺)。找不到答案時它們會編造。

解決方案:顯式約束,將 agent “落地”。

糟糕做法(無約束):

Answer customer support questions based on our documentation.

后果:找不到信息時 agent 會胡編。

良好做法(顯式約束):

Answer customer support questions using ONLY information from the documentation you can access via search_docs tool.

CONSTRAINTS:
- If information is not in docs: "I don't have that information in our current documentation. I'll create a ticket for our team to help you."
- Never make assumptions about features or functionality
- Never provide workarounds that aren't documented
- If multiple solutions exist: Present all documented options
ESCALATION CRITERIA:
- Customer mentions "urgent", "broken", "down" → create ticket immediately
- Question requires account-specific data → create ticket with details
- Documentation is incomplete/contradictory → create ticket noting the issue

為何有效:

  • 清晰邊界(ONLY 文檔中的信息)
  • 明確兜底行為(不確定時怎么做)
  • 升級標準(何時轉人類)
  • 不留“自由發揮”的空間

生產影響:

在每月處理 2000+ 詢問的客服 agent 中,加入約束將幻覺率從 23% 降至 3%。升級的人工工單質量顯著提升,因為工單會包含具體的文檔缺口信息。

技巧 5:Context Engineering(最小高信號 token 集)

Anthropic 的研究很明確:不是“更多 context”,而是“正確的 context”。

原則:Smallest High-Signal Token Set

  • 你的 context 中每一個 token 都應提供價值
  • 冗余信息會稀釋關鍵信號
  • 更多 context ≠ 更好表現(往往適得其反)

糟糕的 context(冗長、重復):

You are a helpful AI assistant designed to help customers with their questions and concerns. You should always be polite, professional, and courteous in your responses. Make sure to read the customer's question carefully and provide a thorough and complete answer that addresses all of their concerns. If you're not sure about something, it's better to say you don't know than to provide incorrect information...

350 個 token 的空話,幾乎沒有可執行指導。

良好的 context(密度高、具體):

You are Support Agent.

RESPONSE REQUIREMENTS:
- Max 150 words
- Plain language (non-technical)
- Structure: Problem acknowledgment → Solution → Next steps
TOOLS:
- search_docs(query) → search product documentation
- create_ticket(title, priority, details) → escalate to human team
WORKFLOW:
1. Search docs for relevant information
2. If found: Provide answer with doc reference
3. If not found OR customer mentions "urgent"/"broken": Create ticket

110 個 token,信號密度很高。每行都有可執行信息。

Token 審計:

對 prompt 中每個句子問一句:“刪掉它,agent 會變差嗎?”如果不會,就刪。

高級模式:何時用(何時別用)

核心技巧適用于所有場景。下面這些高級模式非常強,但要“對癥下藥”。

模式 1:Chain-of-Thought(CoT)——用于復雜多步推理

沃頓商學院 2025 年 6 月的研究給出了迄今最全面的分析:CoT 對復雜推理有幫助,但對簡單任務效果參差。

何時使用 CoT:

  • 需要多步邏輯推理
  • 數學計算
  • 有依賴關系的復雜決策樹
  • 中間步驟重要的任務

不該用 CoT 的場景:

  • 簡單分類(增加負擔無益)
  • 模式匹配型任務
  • 對速度極其敏感(CoT 會增加延遲)

圖片圖片

在 n8n 中的實現:

TASK: Analyze customer request and determine best resolution path.

REASONING PROCESS (think step-by-step):
1. IDENTIFY: What is the core issue? (Quote specific parts of message)
2. CLASSIFY: Which category? (sales/support/billing/general)
3. ASSESS URGENCY: Time-sensitive keywords? Tone indicators?
4. CHECK PREREQUISITES: Can we resolve with available tools?
5. DECIDE: Route to appropriate handler with reasoning
Think through each step explicitly before providing your final answer.

性能影響:

  • 準確度提升:復雜推理任務提升 2–5%
  • 延遲增加:20–40%(模型輸出更多 tokens)
  • 成本增加:與輸出 token 增長成正比

結論:只有當準確度提升能抵消成本和延遲的權衡時,才使用 CoT。

模式 2:RAG(Retrieval-Augmented Generation)——用于外部知識

當你的 agent 需要:

  • 動態/頻繁更新的內容(產品目錄、文檔)
  • 體量巨大、放不進 context 的知識庫
  • 客戶特定數據(訂單記錄、賬戶詳情)
  • 訓練語料之外的專有信息

RAG 就是必需的。

n8n 中的 RAG 基本流程:

Webhook/Trigger
  ↓
Extract Query (user's question)
  ↓
Vector Search (retrieve relevant chunks from knowledge base)
  ↓
AI Agent (answer using retrieved context)
  ↓
Response

關鍵 RAG 要點(基于 kapa.ai 的分析):

  • Chunk size:每塊 500–800 tokens(大多任務的最佳區間)
  • Overlap:塊間重疊 50–100 tokens(避免邊界信息丟失)
  • Number of chunks:返回 3–5 個最相關塊
  • Reranking:向量召回后做語義重排以提升相關性
  • Metadata:包含來源、時間戳、置信度

RAG Prompt 示例:

Answer the customer's question using ONLY the information provided below.

CONTEXT FROM DOCUMENTATION:
{{$json.retrieved_chunks}}
CUSTOMER QUESTION:
{{$json.user_message}}
INSTRUCTIONS:
- Base answer strictly on provided context
- If context doesn't contain the answer: "I don't have that information in our current documentation."
- Include source reference: "According to [doc_title]..."
- If multiple relevant sections: Synthesize information from all
CONFIDENCE ASSESSMENT:
- High confidence: Answer directly stated in context
- Medium confidence: Answer can be inferred from context
- Low confidence: Context is incomplete → escalate

模式 3:Document Repacking——順序比你想的更重要

Wang 等(2024)研究發現:context 的“順序”影響顯著。

發現要點:

  • Primacy bias:模型更注意開頭的信息
  • Recency bias:也更注意結尾的信息
  • Middle neglect:中間的信息更容易被忽略
  • 性能影響:通過最優排序可提升 5–10% 準確度

最優排序策略:

  1. 最相關/最重要的信息放最前
  2. 次要的支持信息放中間
  3. 約束與提醒放最后(利用近因效應)

示例(RAG context):

MOST RELEVANT DOCUMENTATION:
[Chunk with highest relevance score]

ADDITIONAL CONTEXT:
[Supporting chunks]
CONSTRAINTS (IMPORTANT):
- Answer only from provided context
- If uncertain: Escalate to human team

模式 4:Structured Outputs——為數據抽取提供 100% 可靠性

OpenAI 的 Structured Outputs(GPT-4o)及其他模型的類似能力,解決了一個大問題:獲得一致、可解析的輸出。

傳統 prompting 的問題:

Output format: JSON with fields category, urgency, confidence

模型可能會輸出:

  • 合法 JSON
  • 帶多余字段的 JSON
  • 缺字段的 JSON
  • 格式錯誤的 JSON
  • 先文字解釋再給 JSON

你得為這些情況全部做兜底。

Structured Outputs 的方案:

定義 JSON schema,配合 Structured Output Parser 節點攔截異常即可。

示例 schema:

{
  "type":"object",
"properties":{
    "category":{
      "type":"string",
      "enum":["sales","support","billing","general"]
    },
    "urgency":{
      "type":"string",
      "enum":["low","medium","high"]
    },
    "confidence":{
      "type":"number",
      "minimum":0,
      "maximum":1"
    },
    "reasoning": {
      "type": "string"
    }
  },
  "required": ["category", "urgency", "confidence"]
}

好處:

  • 不再有解析錯誤
  • 保證 schema 合規
  • 下游處理更簡單
  • Enum 約束(只允許有效值)

何時使用:

  • 非結構化文本的數據抽取
  • 固定類別的分類
  • 需要特定格式的 API 集成
  • 任何對輸出格式一致性要求高的任務

元技能:與模型一起生成 prompt

我構建 AI agents 的方式就此改變:別再手寫 prompt,讓模型來生成。

流程:

  1. 定義需求(agent 要做什么)
  2. 提供示例(能代表期望行為的輸入/輸出對)
  3. 指定約束(絕不該做什么)
  4. 讓模型生成“優化后的”prompt
  5. 測試并迭代(基于實際表現微調)

Meta-prompt 示例:

I'm building an AI agent for customer support email classification. Help me create an optimal system message prompt.

REQUIREMENTS:
- Classify emails into: sales, support, billing, general
- Assess urgency: low, medium, high
- Output format: JSON with category, urgency, confidence
- Must handle edge cases: unclear intent, multiple topics, spam
TOOLS AVAILABLE:
- search_docs(query): Search documentation
- create_ticket(title, priority, description): Escalate to humans
EXAMPLES OF DESIRED BEHAVIOR:
[Include 3-5 diverse examples with input and expected output]
CONSTRAINTS:
- Never make up information
- When uncertain (confidence < 0.7): Escalate
- Response under 150 words for direct answers
- Include reasoning in output
Generate an optimized system message that will consistently produce these results.

模型會生成一個:

  • 結構與措辭最優
  • 融合有效技巧
  • 在具體與靈活間取得平衡
  • 針對你用例的 prompt

為何有效:

  • 模型了解自己的“偏好”
  • 它會采用最優結構和表述
  • 你能省下大量試錯時間

模型相關注意事項:哪些真的重要

大多數“模型特定技巧”并不靠譜。但有些差異確實重要:

Claude(Anthropic):

  • 優勢:復雜推理、長 context(200K tokens)
  • 劣勢:有時過度謹慎,會拒絕無害請求
  • 最佳實踐:明確寫清 constraints,再讓其自由推理
  • Prompt caching:對 >1024 tokens 的 System Messages 啟用

GPT-4o(OpenAI):

  • 優勢:Structured Outputs(100% schema 合規)、速度快
  • 劣勢:context 較短(128K),較少“深思熟慮”
  • 最佳實踐:數據抽取使用 Structured Outputs,配合精確指令
  • Prompt caching:對 System Messages 自動啟用

GPT-4o-mini:

  • 優勢:便宜($0.15/M vs $3/M),適合簡單任務
  • 劣勢:復雜指令魯棒性較弱
  • 最佳實踐:使用具體、結構化的 prompts,配 few-shot 示例

Gemini(Google):

  • 優勢:多模態(圖像、視頻)、超長 context(2M tokens)
  • 劣勢:tool-use 支持較弱,有時不穩定
  • 最佳實踐:用于多模態場景,避免復雜工具編排

選型經驗法則:

  • 復雜推理 + 長文檔 → Claude Sonnet
  • 數據抽取 + Structured Outputs → GPT-4o
  • 簡單分類 + 預算敏感 → GPT-4o-mini
  • 多模態(圖/視頻)→ Gemini

生產級模式:測試、錯誤處理、優化

好 prompt 遠遠不夠——你需要生產級工作流。

測試策略

用真實的 edge cases 測,別只測“快樂路徑”:

Test cases for email triager:
? Standard support request
? Angry customer (caps, exclamation marks)
? Sales inquiry with technical questions (mixed intent)
? Very short message ("help")
? Wrong language (if only English supported)
? Spam/irrelevant content

錯誤處理

AI agents 可能失敗——要有兜底:

n8n workflow:
AI Agent Node
  → IF Error OR confidence < 0.7:
     → Fallback: Route to Human
  → ELSE:
     → Continue with automated workflow

帶 confidence 的 System Message 約定:

If you're uncertain (confidence < 70%):
Set "needs_human_review": true in output

Token 優化

高并發下,每個 token 都很寶貴:

  • 移除冗余:例如 “Please”、“Thanks”、“I think”
  • 合理縮寫:“Maximum”→“Max”,“Information”→“Info”
  • 使用符號:“→” 代替 “then”,“?” 代替 “correct”
  • 用 JSON 替代散文:結構化數據優于長句
  1. 監控與日志

跟蹤關鍵指標:

  • Latency:agent 響應耗時
  • Token usage:每次請求的輸入 + 輸出 tokens
  • Error rate:失敗頻率
  • Confidence distribution:置信度分布

在 n8n 中:用 Webhook → Google Sheets 進行輕量記錄:

After AI Agent Node:
→ Set Node (Extract Metrics):
   - latency: {{$now - $('AI Agent').json.startTime}}
   - input_tokens: {{$('AI Agent').json.usage.input_tokens}}
   - output_tokens: {{$('AI Agent').json.usage.output_tokens}}
   - confidence: {{$('AI Agent').json.confidence}}
→ Google Sheets (Append Row)

上線檢查清單

上線前:

Prompt 質量:

  • System Message 與 User Prompt 是否正確分離?
  • System Message 是否穩定以利用 prompt caching?
  • 是否使用正向指令(而非“避免 X”)?
  • 是否有含 edge cases 的 few-shot 示例?
  • 約束是否清晰?
  • 輸出格式是否明確?

測試:

  • 是否用 10+ 個真實測試用例?
  • 邊界情況(短輸入、錯別字、混合意圖)是否覆蓋?
  • 錯誤處理是否有效?
  • 不確定時是否有 fallback 策略?

性能:

  • Token 是否優化(無冗余)?
  • 是否啟用 prompt caching?
  • 延遲是否可接受(< 3s)?
  • 單次請求成本是否核算?

監控:

  • 是否記錄 token 使用?
  • 是否實現錯誤跟蹤?
  • 是否啟用置信度評分?
  • 是否有關鍵指標儀表板?

迭代:

  • 是否有 A/B 測試策略來改進 prompt?
  • 是否建立基于真實用戶數據的反饋回路?
  • 是否規劃定期復盤?

總結:2025 年真正有效的是什么

五大通用核心技巧:

  • Clarity & Specificity:合適的“高度”——具體且保留推理空間
  • Positive Instructions:質量提升 57%(Bsharat 等,2024)
  • Few-Shot Learning:多樣示例 + 邊界情況
  • Constraints & Grounding:以清晰邊界對抗幻覺
  • Context Engineering:最小高信號 token 集

情境性高級模式:

  • Chain-of-Thought:僅用于復雜多步推理(提升 2–5%)
  • RAG:應對外部/更新知識(chunk 500–800 tokens)
  • Document Repacking:通過排序提升 5–10% 準確度
  • Structured Outputs:數據抽取 100% 可靠(GPT-4o)

元結論:

  • 復制模板會失敗——與模型一起生成 prompts
  • 保持 System Message 穩定以發揮 prompt caching(可省 90% 成本)
  • Token 經濟學比“完美措辭”更重要
  • 用 edge cases 做測試比“再加幾個 few-shot”更關鍵

圖片圖片

你的下一步:挑一個現有的 n8n AI Agent 工作流,套用以上五大核心技巧。對比前后 token 使用。通常你會看到成本大幅下降,同時輸出質量不降反升。

這就是“勉強可用”的 prompting 與“可規模化、可上生產”的 prompting 的區別。

責任編輯:武曉燕 來源: AI大模型觀察站
相關推薦

2025-10-27 01:22:00

n8nwindowsdocker

2025-11-03 08:00:00

2025-08-25 08:05:23

2010-04-14 11:22:12

Oracle同時訪問

2025-06-30 09:37:39

2025-07-01 08:17:16

2025-04-21 07:00:00

2025-06-06 02:11:00

MCP服務器AI

2025-05-13 04:00:00

2025-06-30 08:31:08

2025-05-28 02:45:00

Dify扣子Ragflow

2025-10-28 02:11:00

AI幻覺AI輸出工具

2025-10-17 02:11:00

AIAgent機器人

2025-09-24 00:00:00

2023-10-30 00:14:34

Agent提示工程LLM

2025-01-17 09:30:21

2022-01-11 07:59:15

K8S KubernetesAirflow

2025-08-26 03:00:00

Excel技巧數據

2010-04-28 16:59:16

2010-03-23 14:24:12

點贊
收藏

51CTO技術棧公眾號

黄色一级片网址| 欧洲精品在线视频| 日韩久久久久久久久久久| 久久五月精品| 国产东北露脸精品视频| 欧美极品美女电影一区| 国产成人无码一区二区在线观看| 精品欧美一区二区三区在线观看| 国产精品理论片| 99久久久精品免费观看国产 | 视频一区二区三区在线观看| 伊人网中文字幕| 国产综合亚洲精品一区二| 国产偷国产偷亚洲清高网站| jizz18女人| 国产盗摄在线视频网站| 国产亚洲欧洲一区高清在线观看| 91久久中文字幕| 中文在线观看免费网站| 国产主播性色av福利精品一区| 色综合色狠狠综合色| 国产高潮呻吟久久久| 午夜黄色小视频| 激情综合网av| 91精品国产乱码久久久久久蜜臀 | 国产美女www爽爽爽| 久久神马影院| 亚洲精品一区在线观看香蕉| 国产精品嫩草影院8vv8| 欧美hdxxx| 国产精品另类一区| 色一情一乱一伦一区二区三欧美| 内射后入在线观看一区| 国产一区二区三区日韩| 国产精品久久久久999| 永久免费看片在线播放| 很黄很黄激情成人| 超碰日本道色综合久久综合| 四虎影视一区二区| jvid福利在线一区二区| 亚洲欧美日韩中文在线制服| 水蜜桃av无码| 国内精品偷拍| 精品国产一区二区三区av性色| 色婷婷综合在线观看| 久久er热在这里只有精品66| 91激情在线视频| 国产一区视频免费观看| 在线亚洲人成| 色呦呦日韩精品| 国产激情在线观看视频| japanese23hdxxxx日韩| 91福利在线免费观看| 欧美日韩大尺度| 写真福利精品福利在线观看| 欧美中文字幕不卡| 中文字幕在线综合| www.久久爱.com| 日韩欧美专区在线| 任你躁av一区二区三区| 久9re热视频这里只有精品| 亚洲电影av在线| 国产肉体xxxx裸体784大胆| 日韩手机在线| 伊人久久久久久久久久| 三级在线观看免费大全| 成人在线免费视频观看| 日日噜噜噜夜夜爽亚洲精品| 国产一区二区三区在线视频观看| 午夜日韩电影| 97精品视频在线| 欧美黄色一级大片| 久久99久久99小草精品免视看| 91网站免费看| 人妻无码中文字幕| 国产色综合久久| av不卡在线免费观看| 七七成人影院| 欧美色播在线播放| www.久久av.com| 91嫩草精品| 亚洲区免费影片| 成人一级黄色大片| 亚洲黄色大片| 国产精品视频26uuu| h狠狠躁死你h高h| 91亚洲精品乱码久久久久久蜜桃 | 亚洲少妇一区二区| 天天躁日日躁狠狠躁欧美| 中文在线不卡视频| avove在线播放| 欧美专区一区二区三区| 国产美女被下药99| 五月婷婷六月激情| 一区二区中文视频| 爱福利视频一区二区| 色噜噜成人av在线| 日韩精品免费综合视频在线播放| av片在线免费看| 在线综合亚洲| 91性高湖久久久久久久久_久久99| 日本韩国免费观看| 国产精品久久久99| 欧美 国产 综合| 国产精品色婷婷在线观看| 日韩av网站导航| 国产成人自拍网站| 日韩不卡一区二区三区| 国产精品自拍首页| 成人看av片| 在线一区二区三区四区五区| 中文字幕三级电影| 羞羞答答成人影院www| 日本不卡高字幕在线2019| 国产丰满果冻videossex| 亚洲国产精品高清| 亚洲精品乱码久久久久久自慰| 亚洲国产视频二区| 久久天天躁狠狠躁夜夜爽蜜月| 福利网址在线观看| 99久久国产综合色|国产精品| 亚洲免费av网| 91亚洲精品| 亚洲嫩模很污视频| 日韩成人在线免费视频| 国产v综合v亚洲欧| 97精品国产97久久久久久粉红| 欧美电影免费观看| 亚洲精品中文字幕av| 国产乡下妇女做爰视频| 国产91精品一区二区麻豆亚洲| 中文字幕中文字幕一区三区| 成人在线高清| 在线观看久久av| 天天爱天天做天天爽| 久久久久88色偷偷免费| 免费观看日韩毛片| 色综合久久中文| 欧美中文字幕在线播放| 亚洲欧洲精品视频| 天天影视网天天综合色在线播放| 女性生殖扒开酷刑vk| 在线不卡欧美| 国产精品一级久久久| 久久一卡二卡| 欧美精品一区在线观看| 国产乱码久久久久久| jizz一区二区| 久久久久久久久久久视频| 久久悠悠精品综合网| 97视频在线观看网址| 五十路在线视频| 色综合久久久久久久| 久久久久久久久久久久| 免费久久99精品国产| 中文字幕中文字幕99| 亚洲国产视频二区| 97av在线播放| 噜噜噜噜噜在线视频| 欧美日韩在线观看一区二区 | 国产精品mm| 国产高清不卡av| 日韩欧美精品一区二区三区| 亚洲欧洲国产伦综合| 久久国产香蕉视频| 亚洲欧美日韩国产综合在线| 色欲欲www成人网站| 亚洲精品欧洲| 相泽南亚洲一区二区在线播放| 久久精品嫩草影院| 欧美国产一区二区三区| 污视频软件在线观看| 在线中文字幕一区二区| 日韩精品一区二区三区在线视频| 国产69精品久久久久777| 国产99久久九九精品无码| 精品一区av| 亚洲精品日产aⅴ| 深夜成人在线| 精品国产一区久久久| 高潮毛片7777777毛片| 欧美性猛交xxxx免费看| 亚洲区一区二区三| av一本久道久久综合久久鬼色| 欧美午夜视频在线| 原纱央莉成人av片| 日韩在线观看免费全集电视剧网站| 精品人妻无码一区二区| 色综合天天综合色综合av| 欧美另类变人与禽xxxxx| 日韩影院一区二区| 2023国产精品| 日韩欧美色视频| 久久综合九色综合欧美狠狠| 老汉色影院首页| 亚洲图区在线| 91蜜桃网站免费观看| 日韩国产网站| 欧美极品美女视频网站在线观看免费 | 国产伦精品一区二区三区妓女| 蜜桃精品视频在线| www黄色日本| 综合一区二区三区| 欧美一区二区三区四区夜夜大片 | 日本不卡网站| 九九精品在线视频| 91精品国产91久久久久游泳池 | 欧美综合亚洲图片综合区| 久久久www成人免费毛片| 欧美国产丝袜视频| 欧美bbbbb性bbbbb视频| 国产精品2024| 天天操精品视频| 老司机亚洲精品| 少妇高潮毛片色欲ava片| 91成人免费| 亚洲电影一二三区| 亚洲老女人视频免费| 国产传媒欧美日韩| 亚洲精品一二三**| 亚洲一区二区三区四区在线播放 | 国产精品久久亚洲7777| 国产精品视频一区视频二区| 国产激情综合五月久久| 中文字幕在线高清| 91国内免费在线视频| 色www永久免费视频首页在线| 日韩中文视频免费在线观看| 福利视频在线播放| 国产亚洲精品久久| 国产午夜在线观看| 亚洲视频777| 色视频免费在线观看| 日韩高清a**址| 免费的黄色av| 亚洲国产精品人久久电影| 亚洲男女视频在线观看| 欧美成人女星排名| 亚洲精品第五页| 日韩欧美国产麻豆| 丁香六月色婷婷| 亚洲国产成人久久综合一区| 黄色av小说在线观看| 日韩精品一区二区三区三区免费 | 久久你懂得1024| 中文精品在线观看| 久久精品一区二区| 免费黄色片网站| 中文字幕av不卡| 国产在线免费看| 亚洲精品国产视频| 四虎成人精品永久免费av| 亚洲丰满少妇videoshd| 亚州国产精品视频| 色激情天天射综合网| 中文字幕免费播放| 91精品国产品国语在线不卡| 精品区在线观看| 日韩av中文字幕在线| 欧美白人做受xxxx视频| 中文欧美日本在线资源| 拍真实国产伦偷精品| 色综合天天狠天天透天天伊人| 草美女在线观看| 欧美一级在线亚洲天堂| 狠狠久久伊人中文字幕| 91亚洲va在线va天堂va国| 国产精品久久久久久久久久白浆| 久久精品99| 久久国产影院| av在线com| 午夜综合激情| 日韩av一卡二卡三卡| 成人做爰69片免费看网站| 毛茸茸多毛bbb毛多视频| 中文字幕不卡的av| 麻豆chinese极品少妇| 欧美午夜精品久久久久久人妖 | 亚洲欧美日韩精品在线| 国产综合网站| 亚洲狼人综合干| 国产成人高清视频| 小早川怜子久久精品中文字幕| 综合欧美一区二区三区| 国产女同在线观看| 欧美日韩视频在线观看一区二区三区| 超碰在线播放97| 亚洲一级黄色av| 免费在线观看的电影网站| 国产99久久久欧美黑人 | 日本免费一区二区六区| 91久久国产综合久久91精品网站| 欧美成人午夜77777| 一级做a爰片久久| 亚洲毛片av| 国产色视频在线播放| 不卡一区在线观看| 亚洲 欧美 变态 另类 综合| 亚洲成人av福利| 国产精品色综合| 亚洲图片欧洲图片av| caoporn视频在线| 亚洲精品日韩av| 成人羞羞视频播放网站| koreanbj精品视频一区| 国产一区二区伦理| 99久久99久久精品免费看小说.| 午夜精品免费在线观看| www.成人精品| 久久久国产一区二区| 欧美日韩视频免费观看| 国产亚洲精品久久飘花| 午夜精品久久久久99热蜜桃导演| 99草草国产熟女视频在线| 国产成人亚洲综合色影视| 久草手机视频在线观看| 欧美亚洲尤物久久| 男同在线观看| 91精品国产91久久| 成人台湾亚洲精品一区二区 | 紧缚奴在线一区二区三区| 精品欧美一区二区久久久| 精品成人av一区| 韩国av在线免费观看| 久热精品在线视频| 亚洲一区二区小说| 五月婷婷综合色| 日韩精品一卡二卡三卡四卡无卡| 精品人妻一区二区三区香蕉 | 欧美激情精品久久久久久久变态| 亚洲精品乱码日韩| 亚洲制服欧美久久| 毛片av一区二区| 蜜桃av免费在线观看| 欧美日韩在线综合| 69xxxx欧美| 国产日韩精品在线播放| 久久五月天小说| 成年网站免费在线观看| 国产精品久久国产精麻豆99网站| 亚洲精品无码久久久久| 在线播放国产一区中文字幕剧情欧美| 日日av拍夜夜添久久免费| 日韩精品久久一区| 免费观看在线色综合| 神马久久精品综合| 欧美一区二区三区日韩| 亚洲七七久久综合桃花剧情介绍| 亚洲aⅴ男人的天堂在线观看| 伊人久久大香线蕉精品组织观看| 91热视频在线观看| 一区二区三区免费在线观看| 老牛影视av牛牛影视av| 97精品视频在线| 国产成人久久| 激情 小说 亚洲 图片: 伦| 国产精品理论片| 成人午夜精品福利免费| 4444欧美成人kkkk| 欧美自拍偷拍| 美女被艹视频网站| 午夜激情一区二区三区| 国产三区四区在线观看| 国产日产亚洲精品| 欧美日本一区二区高清播放视频| 自拍视频一区二区| 欧美色成人综合| 欧美伦理免费在线| 欧美激情论坛| 国产精品综合一区二区三区| 日韩av男人天堂| 在线观看欧美视频| 蜜桃精品视频| 1024精品视频| 亚洲人成精品久久久久久| 少妇人妻精品一区二区三区| 国产精品福利在线观看网址| 一区二区三区在线电影| 中文字幕5566| 91精品国产手机| 色是在线视频| 香蕉视频在线网址| 99精品热视频| 国产一区二区麻豆| 91超碰中文字幕久久精品| 色狮一区二区三区四区视频| 无码国产69精品久久久久网站| 欧美视频精品在线| 9999精品成人免费毛片在线看| 性高潮久久久久久久久| 成人精品视频一区二区三区 | 都市激情亚洲一区| 男女爱爱视频网站| 国产午夜精品久久久久久久| www夜片内射视频日韩精品成人| 国产成人97精品免费看片| 国产字幕视频一区二区| 91禁男男在线观看| 精品无人区乱码1区2区3区在线| 日韩黄色av|