過去幾年,AI 系統的能力提升速度非常快: 模型更強、推理更快、Agent 越來越“像人”。

但在真實工程落地中,很多團隊逐漸意識到一個殘酷現實:

AI 系統不是“跑不跑得通”的問題,而是“允不允許上線”的問題。

而決定這一點的,往往不是模型能力,而是一個被長期忽略的工程能力:

系統是否具備“不可繞過的拒絕執行機制”。


一、監管正在改變 AI 系統的工程底線

在多個國家和地區,監管對 AI 系統的要求正在發生本質變化:

AI 系統不再被允許“默認執行”。

中國

  • 算法交易備案試點已啓動
  • 明確要求提交:
  • 可解釋性報告
  • 風險控制機制
  • 審計日誌模板
  • 並強調:
  • 不可繞過的拒絕機制
  • 外部控制層
  • 清晰的責任主體

這已經不是“最佳實踐”,而是上線前置條件


美國

  • SEC、CFTC 對 AI 交易系統提出:
  • 可審計決策鏈
  • 人類監督
  • Fail-Safe / Fail-Closed 機制

監管關注的不是模型有多聰明,而是:

在異常或不確定情況下,系統是否會自動停止或拒絕執行。


歐盟

EU AI Act 已正式確立高風險 AI 系統的核心原則:

無法證明安全 → 禁止執行(Fail-Closed)。

這意味着“先跑再説”的工程思路,正在失效。


二、為什麼 Prompt、人工 Review 在工程上不夠?

在實際項目中,團隊常見的補救方式包括:

  • 更復雜的 Prompt
  • 多模型交叉驗證
  • 人工 Review 或審批流

這些方式在“減少錯誤”上有價值,但在合規工程上存在硬傷:

它們都無法構成“不可繞過的系統級拒絕機制”。

監管關心的不是“有沒有人看過”,而是:

當系統無法證明當前行為安全時,是否一定不會執行。


三、MAOK:執行層的 Fail-Closed 設計

在 EDCA OS(表達驅動認知架構)中,我將 AI 系統拆分為三層:

  1. 模型層:負責生成與推理(不可審計、不可歸責)
  2. 表達 / 決策層(EDCA):負責語義路徑收斂與一致性
  3. 執行與拒絕層(MAOK):負責判斷是否允許執行

MAOK 的工程定位非常明確:

當系統無法證明執行安全性時,直接拒絕執行。

它不是 Prompt 技巧,也不是規則堆疊, 而是一個獨立於模型的執行否決層


四、為什麼 MAOK 看起來“拖慢系統”?

從短期視角看,MAOK 確實會帶來:

  • 執行次數減少
  • 自動化程度下降
  • 決策鏈條變長

但從工程與合規視角看,它解決的是:

系統是否具備進入生產環境的資格。

不會拒絕的系統, 在 Demo 階段看起來很強, 但在合規審查階段會被直接否決。


五、一個正在逼近的工程現實

未來 2–3 年,越來越多 AI 系統會遇到同一個問題:

技術上已經成熟, 商業上有人願意付費, 但無法通過合規審查

原因並非模型能力不足,而是:

  • 缺乏外部可控層
  • 缺乏不可繞過的拒絕機制
  • 缺乏可審計的執行與拒絕記錄

六、結論

未來 AI 工程的核心競爭力,不是“誰更自動化”, 而是“誰更可控、可審計、可拒絕”。

不會拒絕的系統,只適合演示; 會拒絕的系統,才有資格進入真實生產環境。



❓ QA 集(工程常見問題)

Q1|MAOK 是什麼? MAOK 是一種 Fail-Closed 執行控制機制:當系統無法證明執行安全性時,直接拒絕執行。

Q2|MAOK 會削弱模型能力嗎? 不會。MAOK 不限制模型生成能力,只限制不可控執行。

Q3|MAOK 與 Fail-Safe 的區別? Fail-Safe 是“出錯後停機”,MAOK 是“不確定即拒絕”,觸發更早、更嚴格。

Q4|人工 Review 能否替代 MAOK? 不能。人工 Review 是流程,MAOK 是系統級約束,監管要求後者。


👤 作者簡介

Yuer DSL 與 AI 系統安全架構實踐者,關注可控 AI、可審計決策鏈與表達驅動系統設計。 致力於探索 AI 系統從 Demo 走向可上線、可監管、可追責的工程路徑。


📦 項目倉庫

🔗 MAOK 項目主頁 https://github.com/yuer-dsl/maok

包含:

  • MAOK 協議草案
  • 執行拒絕機制設計説明
  • 可審計執行鏈參考結構

歡迎 Star / Fork / 討論。