AI写的方案看起来完美,直到另一个AI翻出了三个漏洞
作者:微信文章预计阅读时间:5 分钟
上周,我让 AI 做了一件挺重要的事——给某项目写数据脱敏方案。
哪些用户信息需要脱敏、用什么技术方案、怎么分步实施。AI 写了一份详细的调研报告,列出了脱敏范围和技术选型,条理清晰、格式漂亮。
看起来很完整。
但我总觉得不踏实。做数据安全这种事,只听一家之言就敢动手?
于是我把这份报告原封不动丢给了另一个 AI,让它专门挑刺。
结果让我后背发凉——它找到了一个原来那个 AI 完全没注意到的严重漏洞。
具体是什么漏洞?后面细说。先说结论:多花了几美分的调用费,避免了一次数据泄露事故。
为什么一个 AI 不够用?
你可能觉得:现在的 AI 那么强,一个就够了吧?
还真不够。三个原因:
第一,自己查不出自己的错。
就像你写了一篇文章,自己怎么读都觉得通顺。但让别人一看,错别字、逻辑漏洞一堆。
AI 也一样。同一个 AI 生成的方案,你让它自己审查,它大概率会说"没问题"。因为它的知识盲区和思维定式是固定的,换个说法问,还是那个答案。
第二,AI 也偏科。
你见过哪家公司只招一种人?有人擅长策划,有人擅长找茬,有人擅长跑腿。
AI 模型也是。有的推理能力强但贵,有的便宜但只适合干简单活,有的特别擅长从不同角度找问题。
第三,杀鸡不该用牛刀。
用最贵的 AI(每次调用几美分到几毛钱)去做简单的格式整理?就像请高级顾问来复印文件,纯粹浪费钱。
Perplexity 的 CEO 说过一句话,我觉得说到点上了:"AI 模型在走向专业化,而不是同质化。"(来源:Perplexity 官方博客, 2026-02-27)
我是怎么解决的:给 AI 请一个"审计员"
我的做法很简单:不让同一个 AI 既当运动员又当裁判。
想象你是项目经理,手下四个人:
• 主笔:写方案、做架构、出代码——干核心的活• 审计:专门挑毛病、找漏洞——对抗审查• 调查员:核实信息、查文档——交叉验证• 实习生:跑腿、格式化、做杂活——省钱
四个人来自不同公司、不同背景。正因为背景不同,看问题的角度也不同。
这就是我的多模型工作流——让不同的 AI 各干各的活。
那个"侧门"是怎么被发现的?
回到开头的故事。
原结论:主笔 AI 说"只需要脱敏这 3 个地方的数据"。
审查发现:审计 AI 翻了一遍系统代码,发现还有一条"暗道"——数据会通过另一个入口悄悄流入一张不在脱敏清单里的表。而且这张表,用户能直接打开查看。
为什么危险:正门上了锁,侧门大敞。真实数据照样泄露。
除了这条"侧门",审计 AI 还发现了两个风险:
• 原方案中有个判断逻辑的"视野"太窄,会误判数据类型• 系统如果重新运行数据处理流程,会把脱敏后的数据覆盖掉——等于白干
三个风险,主笔 AI 一个都没发现。不是因为它不强,而是它的知识和训练数据有固有盲区。
换一个"出身"不同的 AI 来审查,恰恰能补上这个盲区。
整个审查过程,就是多调了两次接口。成本?几美分——折合人民币约五毛钱。
这笔账怎么算?
不用算太细,记住一句话就行:
多花几美分的调用费,换来一个"不同背景的审计员"帮你查漏补缺。这笔账怎么算都划算。
如果你非要算:我做那个数据脱敏方案,用主力 AI 生成报告花了约 20 美分,审计 AI 挑刺花了几美分,交叉验证又花了几美分。
总共约三十美分(两块多人民币),比全程只用最贵的 AI 还省了不少,同时多了一层不同视角的安全审查。
什么时候该用,什么时候别折腾?
该请"审计员"的场景:
• 涉及数据安全、隐私保护的方案——必须交叉验证• 架构选型、技术决策——一个人拍板太冒险• 要上生产环境的变更——错了很难回滚
别折腾的场景:
• 写个简单脚本、改个小 bug——一个 AI 就够了• 正在连续对话、上下文很重要——换 AI 会丢记忆• 赶时间的紧急任务——多一步流程就多一分钟
一句话判断法:如果这个决策出错的代价,大于多调一次 AI 的成本,就值得请第二个 AI 审查。
送外部审查前,别忘了这三件事
这里有个容易忽略的安全问题:你让另一个 AI 审查方案,等于把你的项目信息发给了另一家公司的模型。
三个原则,务必记住:
1. 只发必要的:不要把整个项目一股脑丢过去,只发需要审查的那部分2. 先脱敏再发:真实姓名、账号、密钥,全部替换成假数据再送出3. 留个记录:每次发了什么、给了谁,要有据可查,出问题能追溯
大趋势:从"跟一个 AI 聊天"到"管理一群 AI"
上个月,Perplexity 发布了一个叫 Computer 的产品。它的核心卖点是什么?
协调 19 个不同的 AI 模型一起干活。(来源:Perplexity 官方博客, 2026-02-27)
用户只需要描述目标,系统自动拆解任务、分配给最合适的 AI。推理找一个、研究找一个、处理长文本找一个、生成图片又找一个。
这种产品订阅价格不便宜。但你根本不需要花那个钱——只需要在你现有的 AI 工具上多加一个"审查"步骤,就已经用上了多模型编排的核心思路。
科技媒体 Ars Technica 的判断是:2026 年 AI 的使用方式正在发生根本性转变——从"跟一个聊天机器人对话"变成"管理一群各有所长的 AI"(来源:Ars Technica, 2026-02-28)。
这个趋势,离你并不远。
具体怎么做?两种方案任选
你可能会问:听着不错,但我怎么让多个 AI 一起干活?
两种方式,从简单到进阶。
方案一:复制粘贴法(零门槛)
最简单的办法——开两个 AI 窗口:
1. 窗口 A(ChatGPT / Claude / Kimi / DeepSeek,任选一个):让它写方案2. 窗口 B(换一个不同的 AI):把方案复制过去,说"你是审计员,帮我找漏洞"
一分钟操作,零配置。适合偶尔用一次的场景。
方案二:CCB 分屏协作(一个终端管所有 AI)
如果你经常需要多个 AI 协作,每次复制粘贴太麻烦。有个开源工具叫 Claude Code Bridge(CCB),它能让你在一个终端里同时打开多个 AI,每个 AI 占一个窗格,实时可见。
像这样:
┌─────────────┬─────────────┐
│ Claude │ Codex │
│(写方案) │(挑毛病) │
├─────────────┼─────────────┤
│ Gemini │OpenCode │
│(查资料) │(跑测试) │
└─────────────┴─────────────┘
四个 AI 各占一个窗格,你坐在中间当"项目经理"。
核心操作就三步:
# 1. 安装(一次性)
git clone https://github.com/bfly123/claude_code_bridge.git
cd claude_code_bridge && ./install.sh install
# 2. 启动(想用几个 AI 就写几个)
ccb codex gemini opencode claude
# 3. 跟任意 AI 说话
ask codex "审查这份方案的安全风险"
ask gemini "帮我验证这个结论"
CCB 好在哪?
• 看得见过程:不是"黑盒"出结果,每个 AI 怎么思考的,你全程看得到• 各管各的记忆:四个 AI 各自记住自己负责的事,不会互相串• 不挑 AI 品牌:Claude、ChatGPT (Codex)、Gemini、OpenCode、Droid 都支持,未来新出的 AI 也能接• 免费开源:MIT 协议,安装就能用
适合谁:经常用 AI 协作的开发者、技术管理者、内容创作者。一次配好,长期受益。
你明天就能做的 3 件事
1. 给重要方案找个"第二意见"
下次让 AI 写完一个重要方案后,把结果复制给另一个 AI(哪个都行),说一句:"你是审计员,帮我找这个方案里的漏洞和风险。"
一分钟操作,可能帮你避免一次大麻烦。
2. 用"三段式"检验 AI 的输出
原结论是什么 → 审查发现了什么 → 如果不改会怎样。
养成这个习惯,你对 AI 输出的判断力会迅速提升。
3. 试试 CCB 分屏协作
如果你是开发者或经常用命令行:装一个 CCB,让两三个 AI 在一个屏幕里各干各的。
如果你不用命令行:开两个 AI 聊天窗口就够了——一个写,一个审。
核心不是工具,是"不要让同一个 AI 既当运动员又当裁判"这个思维方式。
想看完整配置教程和成本估算?→ Blog 版有详细的 MCP 配置步骤和定价对比表。
这是"AI 工具实战"系列的第 23 篇。
回顾系列进化路径:
• 第 7 篇:让多个 AI 讨论同一个问题 → 求"对不对"• 第 20 篇:让同一个 AI 分身协作 → 求"快不快"• 本篇:让不同 AI 各司其职 → 求"稳不稳"
页:
[1]