2 月 3 日,安全研究人员披露,AI 智能体专用论坛 Moltbook 因系统配置不当,导致其数据库被公开访问,进而引发大规模数据泄露。泄露内容规模达 475 万条记录,其中包含 约 150 万个 API 授权令牌、3.5 万个属于真实用户的电子邮箱地址、2 万份邮件记录,以及部分 OpenAI API 密钥。
泄露数据类型指向高风险操作权限
从已披露的信息结构来看,此次事件并非仅限于基础用户资料泄露,更涉及大量可被直接用于调用服务的 API 授权令牌与密钥。一旦此类信息被恶意利用,攻击者可能绕过常规身份验证机制,对第三方服务发起未经授权的请求,甚至引发资源滥用或进一步的数据扩散风险。
AI 应用生态中的新型安全盲区
分析认为,AI 智能体相关平台往往高度依赖自动化接口、第三方 API 及云端服务,其安全边界与传统 Web 应用存在明显差异。配置错误、权限继承不当或密钥管理松散,均可能在短时间内放大为系统性风险。这类问题在快速迭代的 AI 应用场景中尤为隐蔽,也更难被及时发现。
API 密钥泄露的连锁影响
API 授权令牌一旦外泄,风险并不局限于单一平台。攻击者可借此横向访问关联服务,造成费用损失、数据被滥用,甚至引发下游系统的合规问题。对于涉及加密资产、支付或链上交互的应用而言,API 层面的安全缺陷还可能进一步影响资金与交易安全。
风险可视化与持续监测的重要性
在此类事件频发的背景下,越来越多机构开始重视对 异常调用行为、密钥滥用迹象以及高风险交互路径 的持续监测。通过对系统访问行为与关联地址活动进行分析,可在问题扩散前识别潜在风险。围绕这一思路,Trustformer KYT 等合规与风险监控体系,正被用于辅助识别异常行为模式,为技术团队提供更具前瞻性的安全判断依据。
安全治理仍是 AI 生态的长期课题
此次 Moltbook 数据泄露事件,再次提醒行业在追求功能创新与效率提升的同时,必须同步强化基础安全治理。随着 AI 智能体与自动化系统不断深入业务核心,配置管理、权限控制与行为审计,正逐步成为不可忽视的基础设施能力。