OpenClaw开源智能体隐患显现;中国人工智能产业发展联盟发布针对性防护提示。
中国人工智能产业发展联盟发布OpenClaw开源智能体安全风险提示,强调需加强防护措施。
中国人工智能产业发展联盟作为人工智能产业重要协作平台,一直致力于维护成员单位合规运营,并促进人工智能产业朝着安全可靠方向稳步前进。近期,工业和信息化部相关平台针对OpenClaw(此前称为Clawdbot、Moltbot)这一开源AI智能体发出安全风险预警,指出其存在若干较高等级隐患,可能给用户带来不利后果,因此在实际部署和应用过程中必须注重强化各项安全防护。中国人工智能产业发展联盟据此发布针对性提示,帮助成员单位准确辨识潜在问题、主动采取防范策略,从而有效降低因不当使用引发的各种损失。
这一智能体具备持续自主运作、多模态内容处理以及跨平台指令执行等强大功能,但也因此容易遭受提示词注入与指令劫持类攻击。攻击者可能借助文档、网页或交互界面嵌入恶意内容,绕过原有防护机制,导致智能体被操控执行未经许可的操作,例如数据窃取、权限修改或恶意代码运行等,从而造成关键敏感信息、核心知识产权以及系统凭证等泄露,甚至使主机沦为网络攻击的傀儡节点。这种风险在实际环境中较为突出,需要引起高度重视。
此外,受大语言模型本身固有局限性影响,该智能体在独立完成任务时偶尔会出现理解偏差或逻辑判断失误,可能引发生产数据损坏、业务系统重要设置被更改、关键流程意外中断等难以逆转的后果,对组织日常运作产生明显不利影响。第三方生态组件来源多样,许多未经严格审核的插件、扩展或技能模块已被发现含有恶意元素,使用后容易导致部署环境失控,进而引发内网扩散渗透或勒索类攻击等连锁问题。
配置不当以及已知漏洞被利用也是重要隐患。该智能体存在多项公开披露的中高危漏洞,默认防护水平较低,如果出现公网暴露、弱认证方式、高权限运行或敏感数据未加密存储等情况,攻击者可直接利用这些缺陷实现系统全面控制,带来数据全面外泄或业务全面中断的严重后果。同时,这种智能体面临大模型内在风险与传统软件漏洞深度结合的复合攻击模式,传统防护边界被打破,形成难以单一措施全面覆盖的威胁格局。
在合规与责任方面,如果涉及个人信息处理、重要数据流动、自动化判断或跨境传输等场景,却未严格遵循相关法律法规和行业规范,将引发相应合规问题;采用第三方封装服务时,还可能因责任界定不明晰,导致事件发生后追责困难。此外,配置调用境外模型接口或访问境外资源,可能造成未经评估的跨境数据流动,违反数据出境安全评估相关规定。
为应对上述风险,中国人工智能产业发展联盟结合主流应用方式,将OpenClaw分为自行本地部署、云上部署以及第三方服务使用三大场景,首先提出全场景通用的基础安全要求,作为所有应用不可逾越的底线。其包括审慎评估实际需求、加强供应链管理、在隔离环境中审查第三方组件;明确使用范围,严禁向敏感或涉密环境开放权限;严格遵守网络安全法、数据安全法、个人信息保护法以及生成式人工智能服务管理暂行办法等法规;实施全流程审计与日志保留,建立异常监测和应急响应机制;持续跟踪漏洞信息、及时更新版本并进行环境加固;加强员工培训,提升对部署风险和敏感信息保护的认识,避免与个人社交账号不当关联。
在自行本地部署场景下,需特别注意源码获取渠道安全,从官方可信位置下载后立即进行静态审计和漏洞扫描,避免使用不明来源的分支或镜像包。这种模式适用于在本地服务器或内网环境中自主搭建运行,风险点主要集中在源码引入和配置管理上,通过严格把控可显著降低隐患。
通过这些系统性提示和指引,中国人工智能产业发展联盟旨在推动产业参与者形成更强的安全意识与实践能力,确保人工智能智能体技术在带来便利的同时,不成为安全隐患的来源。未来,联盟将继续监测相关动态,提供更多支撑服务,促进人工智能产业健康可持续发展。

