1. 工作流概覽
通過“雙 AI 層”驗證機制,先對呼叫中心 CRM 數據生成詳細分析報告,再由第二模型複核質量與準確性,最後將結果回調給外部 API。
適用場景
- 呼叫中心 CRM 數據自動分析
- AI 報告質量自動質檢
- 通過回調與外部系統集成
- 利用不同模型交叉驗證 AI 輸出
邏輯塊劃分
- 1.1 數據接收
– 支持 Webhook 實時接收或手動觸發+示例數據測試 - 1.2 主 AI 分析
– 利用 DeepSeek 推理模型(R1)在鏈式 LLM 中生成報告 - 1.3 副 AI 核驗
– 使用另一 DeepSeek 對話模型(V3)獨立評估報告準確性、完整度與洞察質量 - 1.4 結果下發
– 將已核驗的報告通過 HTTP POST 推送至指定回調地址 - 1.5 流程控制與測試
– 手動觸發器 + 示例數據節點,便於調試 - 1.6 文檔與用户指引
– 便籤提供操作提示、註釋及聯繫方式
2. 逐塊詳解
1.1 數據接收
功能
管理數據入口:生產環境用 Webhook;測試時用手動觸發+示例數據。
節點
- Webhook
- 點擊“測試工作流”(手動觸發)
- 示例數據
詳情
- Webhook
- 類型:Webhook(支持 POST/GET)
- 作用:接收外部 CRM 數據
- 配置:唯一路徑 ID;輸出連至“報告”節點
- 異常:地址不可達或數據格式非法時失敗
- 點擊“測試工作流”
- 類型:手動觸發
- 作用:本地一鍵調試
- 輸出:觸發“示例數據”
- 示例數據
- 類型:代碼節點
- 作用:返回靜態座席指標數組(產能、線索、Upsell 等)
- 輸出:JSON 數據給“報告”節點
1.2 主 AI 分析
功能
藉助 DeepSeek 推理模型,在鏈式 LLM 中輸出 Markdown 格式的深度分析報告。
節點
- 報告
- DeepSeek Reasonning
詳情
- 報告
- 類型:Chain LLM(LangChain v1.6)
- 作用:分析 CRM 數據,生成含轉化率、Upsell、排名等洞察的報告
- 配置:
– Prompt 要求按 Markdown 輸出
– 輸入為字符串化 JSON(來自 Webhook 或示例數據) - 輸出:Markdown 文本 → “複核”節點
- DeepSeek Reasonning
- 類型:DeepSeek LLM Chat(推理模型 R1)
- 作用:作為“報告”節點的後端模型,提供增強推理
- 憑證:DeepSeek API Key
1.3 副 AI 核驗
功能
獨立評估已生成報告:事實正確性、覆蓋度、洞察深度、格式規範。
節點
- 複核
- DeepSeek Chat
詳情
- 複核
- 類型:Chain LLM(LangChain v1.6)
- 作用:扮演質檢專家,對比原始數據與報告
- 配置:
– Prompt 要求輸出 JSON(含評分、缺失項、錯誤列表)
– 輸入:原始 CRM JSON + Markdown 報告 - 輸出:核驗結果 → “HTTP Request”節點
- DeepSeek Chat
- 類型:DeepSeek LLM Chat(V3)
- 作用:為“複核”節點提供模型後端
1.4 結果下發
功能
將已核驗的報告推送到外部系統。
節點
- HTTP Request
詳情
- HTTP Request
- 類型:HTTP Request
- 方法:POST
- URL:用户需替換為真實回調地址
- Body:JSON
{ data: "{{$node['Report'].json.text}}" } - 異常:地址錯誤、網絡超時、Payload 格式問題
1.5 流程控制與測試
節點
- 點擊“測試工作流”
- 示例數據
(同 1.1,略)
1.6 文檔與用户指引
便籤清單
- 便籤:生成報告節點使用 DeepSeek R1
- 便籤1:複核節點使用 DeepSeek V3
- 便籤2:説明手動觸發用途
- 便籤6:提示可修改 Prompt 自定義目標
- 便籤8:僅作測試
- 便籤9:生產環境請用 Webhook
3. 節點總覽表
|
節點名稱
|
節點類型
|
功能簡述
|
輸入節點
|
輸出節點
|
對應便籤説明
|
|
點擊“測試工作流”
|
手動觸發
|
手動調試
|
—
|
示例數據
|
測試工作流 … |
|
示例數據
|
代碼
|
提供樣例 CRM 數據
|
手動觸發
|
報告
|
|
|
Webhook
|
Webhook
|
接收外部數據
|
—
|
報告
|
生產 |
|
報告
|
Chain LLM
|
生成 Markdown 報告
|
Webhook/示例數據
|
複核
|
Generate report…R1 |
|
DeepSeek Reasonning
|
DeepSeek LLM Chat
|
推理模型後端
|
—(掛接)
|
報告
|
|
|
複核
|
Chain LLM
|
質檢報告
|
報告
|
HTTP Request
|
Double-check…V3 |
|
DeepSeek Chat
|
DeepSeek LLM Chat
|
對話模型後端
|
—(掛接)
|
複核
|
|
|
HTTP Request
|
HTTP Request
|
回調外部 API
|
複核
|
—
|
|
|
各便籤
|
便籤
|
指引/備註
|
—
|
—
|
見 1.6
|
4. 從零復現步驟
- 新建“手動觸發”節點,命名為“點擊‘測試工作流’”。
- 新建“代碼”節點,命名為“示例數據”,寫入返回座席指標數組的 JS 代碼,並連接手動觸發。
- 新建“Webhook”節點,方法 POST+GET,路徑自定義 UUID,作為生產入口。
- 新建“Chain LLM”節點,命名為“報告”:
- Prompt 要求分析線索轉化、Upsell、排名,輸出 Markdown;
- 輸入變量連接 Webhook/示例數據;
- 後端模型選“DeepSeek Reasoner”。
- 新建“DeepSeek LLM Chat”節點,模型選 deepseek-reasoner,配置 API 憑證,並掛接到“報告”。
- 新建“Chain LLM”節點,命名為“複核”:
- Prompt 要求對比原始數據與報告,輸出 JSON 評分;
- 輸入變量連接“報告”輸出的 text 與原始 JSON;
- 後端模型選“DeepSeek Chat”。
- 新建“DeepSeek LLM Chat”節點,模型默認(V3),掛接到“複核”。
- 新建“HTTP Request”節點,方法 POST,URL 替換為真實回調地址,Body 填
{ data: {{$node['Report'].json.text}} },輸入連接“複核”。 - 按需添加便籤,寫明模型版本、測試方法、聯繫方式等。
- 檢查連線與憑證,測試 Webhook 可達性,完成部署。
5. 通用提示 & 資源
|
內容摘要
|
説明/鏈接
|
|
報告生成用 DeepSeek R1,質檢用 V3,雙模型交叉
|
版本區分
|
|
測試時優先使用手動觸發+示例數據
|
免配置外部請求即可看效果
|
|
回調地址需自行替換,確保外部 API 能正常接收
|
集成前請驗證接口
|
免責聲明
本文檔全部內容均來自合法 n8n 工作流自動導出,未包含任何違法或敏感信息,僅用於公開技術分享。