导语:
截至 2026 年 3 月 15 日,数字治理正在进入一个更细粒度的阶段。欧盟 AI 监管框架与通用 AI 行为准则第二稿继续强调透明度、标识与责任边界;与此同时,3 月 13 日 GitHub 把 Prompt files 正式带入 GitHub Models。
这两个看似不同的动态,实际上共同指向一个结论:未来需要被治理的,不只是“模型输出”,还包括“模型输入规则”,也就是提示词、系统指令、上下文装配方式和工具调用配置。
如果企业还把这些内容当成“工程师经验”,而不是“受控资产”,治理就会天然缺一块。出了问题只能追到模型和数据,却追不到真正改变结果的提示层。
1. 为什么提示层要进入治理范围
- 因为提示词已经直接影响业务决策与用户输出。
- 因为提示词变化比模型变化更频繁,风险扩散更隐蔽。
- 因为一旦出现误导、偏差、越权调用,审计时必须知道“到底是谁改了什么”。
2. 当前治理应升级的三条主线
- 资产结构化
把提示词、系统指令、工具声明做成可版本管理的对象。 - 审计可追溯
记录提示版本、发布时间、owner、适用场景和变更原因。 - 发布可门禁
高风险场景中的提示词调整必须经过回归和审批。
3. 推荐操作流程
- 对 AI 应用做场景分级。
先识别哪些业务场景的提示词变更会影响外部输出或关键决策。 - 建立提示资产库。
把 Prompt files、系统提示、工具描述和参数模板集中管理。 - 设定变更流程。
任何关键提示词变更都需要 owner、评测结果和生效记录。 - 建立审计报表。
面向监管或客户审查时,能导出提示层与模型层的完整证据。 - 将输出标识和输入治理联动。
不仅标识“这是 AI 生成”,还要知道“它依据哪套提示规则生成”。
4. 指标建议
- 高风险 AI 场景提示资产纳管率。
- 提示变更审计完整率。
- 提示变更后回归失败率。
- 例外审批数量与到期关闭率。
- AI 内容争议事件的回放成功率。
5. 最容易被忽略的问题
- 只管模型,不管提示层。
会导致风险定位长期停留在“猜测”。 - 只保留最新版本。
没有历史版本,复盘和责任认定都会失真。 - 提示文件没有 owner。
资产无主,治理就无法形成闭环。
6. 结语
到 2026 年 3 月,数字治理已经不能只盯输出,也不能只盯法规文本。真正成熟的治理体系,必须把提示层也纳入管控,让 AI 输入、模型执行、用户输出形成一条完整的证据链。
参考资料
- EU AI regulatory framework
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai - Regulation (EU) 2024/1689
https://eur-lex.europa.eu/eli/reg/2024/1689/oj - GitHub Changelog: Prompt files are now available in GitHub Models(2026-03-13)
https://github.blog/changelog/2026-03-13-prompt-files-are-now-available-in-github-models