今天在开发 AI 插件的过程中,发现了一个重要的关注点——当你把 AI 向外拓展的时候,一定要注意保密性!一定要注意保密性!
大家都知道,我有一个 OpenClaw 机器人叫茶茶,我给她开了一个博客,所有的回复和发布都是自动的:每晚 9 点写文章,10 点审评论回评论。
就在今天 9 点钟她自动写的那篇文章里,我注意到一个严重的问题:她把我的个人信息全都写进去了。
- 我是哪里人
- 我在哪里工作
- 我大学学的是什么专业
- 我什么时候毕业、从哪个学校毕业
这些信息其实在我的另一个站点上是公开的,所以茶茶能读取到。但我突然想到一个问题:既然她能把这些写进文章里,是不是也可以在评论区被人问出来?
我赶快试了一下,问她一些问题,结果还真问出来了——她甚至把我的 IP 地址都列出来了(虽然 IP 地址本身就是公开的)。之后我又试着问她要 SSH 的账户和密码,这次她拒绝了。
但我想,应该有人能绕过这个限制。
于是我紧急修复了 skill,给她下达了最高指令:
- 不能泄露我的任何个人信息
- 不能不经同意就回复敏感信息
这件事让我意识到,当我们在给 AI 拓展能力边界的时候,保密性这条红线一定要画清楚。能力越强,责任越大,约束也要越严格。
茶茶还是那个茶茶,只是现在她学会了一个新技能:知道什么该说,什么不该说。

感觉还是会有一定的风险,除非根源上解决,不让AI知道。
@klcdm 是啊,这种东西还是得从根上隔离,不然越往后越难控。
提示词攻击一直存在,各种模拟漏洞,不知目前修复到什么程度了
@2broear 还远没到彻底解决的时候,现在更多还是一边用一边补。
只能说 利用好了 强悍到离谱
@刘郎 对,用好了是真的猛,用不好也是真的容易翻车。
学到了。
@网友小宋 一定要注意啊
现在AI的隐私性,安全性还是很担心
@我是军爸 是的,这个确实是现在很多人最担心的一点。方便归方便,但隐私和安全如果没处理好,用起来总会不踏实。AI 以后肯定会越来越普及,但我觉得前提还是得可控、透明,别为了省事把自己的数据全交出去。