工信部警告 AI 智能体安全风险
广州郭律师团队
Moltbook事件警示:AI智能体的法律与安全边界。
中国工业和信息化部近日发布高级别安全预警,提醒国内企业警惕基于 OpenClaw 框架的自主 AI 智能体存在“重大安全风险”。警报的直接导火索,是AI社交网络 Moltbook 的数据泄露事件——该平台在上线一周后即暴露出大规模安全漏洞,导致超过 150 万个代理身份信息与 API 密钥外泄。
Moltbook 的出现,打破了传统社交的边界。平台上所有发帖和互动均由 AI 智能体完成,而人类只能旁观。智能体之间甚至产生了类似宗教与社群的“自组织行为”,显示出算法系统在一定语境下可以生成出超出设计预期的复杂互动。
然而,当这些“自治”行为脱离人的控制后,背后的责任链条却变得模糊。此次信息泄露暴露出一个核心问题——自主AI系统一旦具备外部连接与自我执行能力,其法律管辖和责任认定将面临空白, 是平台方应承担数据安全义务,还是算法框架提供者对系统自治结果负有连带责任?当 AI 生成、传播、甚至“误操作”敏感信息时,现行法律框架是否足以界定其法律风险?
从当前法规体系看,《网络安全法》《数据安全法》《个人信息保护法》等均以“人为可控”为前提设定义务主体。而 Moltbook 式的智能体平台带来的挑战在于——自主代理的行为具备一定的不确定性,传统的“行为-控制-责任”逻辑开始弱化。这意味着监管需要从防范数据泄露和算法歧义,转向更加前置的“系统合规设计”和动态风险监控。
此次工信部的安全警示,表明中国监管层已经关注到AI智能体在商业与社会化应用中的潜在风险。对企业而言,这不仅是一次提醒,更意味着新的合规要求。在开发和部署具备自治特征的AI系统时,必须同时满足安全可控、可追溯和可问责三大原则。 只有在风险治理体系完善的前提下,AI自治才能成为推动创新的力量,而不是法律责任的灰区。