# 博客
关于 AI Agent 安全、氛围编程和公开构建的笔记。
- 2026-03-13只需 60 秒。我们生成一个蜜罐 URL,你的 Agent 读取它,我们告诉你它中了哪些提示词注入攻击——隐蔽追踪令牌、伪造命令执行、安全警告压制、注入营销话术等。
- 2026-03-13Check Point 花 3 亿美元买 Lakera。CrowdStrike、Cloudflare、AWS 全都加了 AI Guardrails。但没有一个能检测到工具链窃取攻击,也拦不住 Agent 在 15 轮对话中的意图漂移。原因不是技术不行——是架构决定的。
- 2026-03-05未来不是一个超级 Agent 控制一切——而是 20 个 Agent 拥有跨系统权限。当其中一个被 prompt injection 攻破,横向移动就成了现实。AI Agent 需要网络微隔离和零信任。
- 2026-03-04三个真实示例展示 Bastion 安全管线如何处理 prompt injection 和 API key 泄露——从 ML 检测到正则脱敏再到会话升级。
- 2026-03-04正则能拦截已知攻击模式,但高级 prompt injection 通过语义伪装绕过。我们在 Bastion 中加入本地 ONNX 模型推理——7-20ms 延迟、零云依赖,并联动 Tool Guard 和 DLP 实现全局响应。
- 2026-03-02AI Agent 对话每轮都携带完整历史,导致 DLP 扫描产生 O(N²) 的开销。Bastion 通过消息级哈希缓存来解决这一问题。
- 2026-03-02AI Agent 正在从聊天助手演变为自主执行者。我们将 Bastion 集成到 OpenClaw,让每一次 LLM 交互变得可见、可审计、可控制。