近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,多地政府相继出台专项扶持政策,从企业到个人开发者,部署OpenClaw正成为新的趋势。该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。
工业和信息化部网络安全威胁和漏洞信息共享平台此前已发布相关安全预警。中国信息通信研究院副院长魏亮提醒,即使升级到官方最新版本修复已知漏洞,也并不意味着安全风险完全消除。由于智能体具有自主决策、调用系统资源以及技能包来源复杂等特点,如果缺乏有效防护措施,仍可能引发数据泄露或系统被控制等安全问题。
3月10日,国家互联网应急中心发布《关于OpenClaw安全应用的风险提示》,指出该类智能体在运行过程中通常需要被授予较高系统权限,例如访问本地文件系统、读取环境变量、调用外部API以及安装扩展插件等。如果默认配置缺乏必要的安全限制,攻击者一旦利用漏洞突破防护,可能获得系统的完全控制权,进而造成数据泄露或业务系统失控等严重后果。
全国政协委员、360集团创始人周鸿祎在近期接受媒体采访时也指出,OpenClaw等AI智能体虽然拥有较大的创新潜力,但目前仍处于发展初期阶段,使用门槛较高、结果稳定性不足,底层安全机制仍有待进一步完善。如果缺乏有效管控,让智能体随意与外部系统交互,或在公开环境中执行复杂任务,可能导致用户密码、API密钥等敏感信息被诱导泄露。此外,OpenClaw支持通过外部“技能包(Skill)”扩展能力,但部分技能来源复杂,如果缺乏审核机制,存在被植入恶意代码的风险。周鸿祎形象地将AI智能体比作刚入职的“实习生”,既需要持续训练,也必须建立严格的规则约束,并提醒用户:“养龙虾,需谨慎。”
针对这一新型安全挑战,360集团率先发布国内首份《OpenClaw安全部署与实践指南》(以下简称“指南”),为政企机构和个人开发者提供系统化的安全参考。360指出,AI智能体越接近“数字分身”,一旦被攻击者控制,其潜在破坏力也越大,因此在部署初期建立安全机制尤为关键。
在《指南》中,360总结了当前AI智能体部署面临的多类典型风险,包括公网管理接口暴露、API Key等身份凭证泄露、底层Shell工具调用越权、提示词注入攻击、记忆模块被恶意投毒、第三方技能插件供应链风险以及多智能体协同失控等问题。其中,提示词注入和插件供应链攻击被认为是当前最容易被忽视、却危害较大的新型攻击方式。一旦被利用,攻击者可能诱导智能体执行非预期指令,甚至长期操控其行为。
为了帮助企业团队和OPC(一人公司)创业者在保障安全的前提下使用AI智能体,360在《指南》中提出“先可控、再提效”的原则。针对个人开发者和小型团队,指南建议避免直接在本机高权限运行智能体,而是通过容器化技术构建隔离环境,并结合最小权限策略、密钥加密注入和关键配置文件防篡改等措施,为OpenClaw搭建安全运行基础,从而在不增加复杂度的情况下有效降低风险。
对于政企级多智能体协同应用场景,360则提出基于零信任理念的整体安全架构:在系统边界部署安全网关,对智能体所有出入流量进行统一控制并实施数据防泄漏检测;在平台内部建立多租户与RBAC细粒度权限管理机制,实现管理员、安全审计员、工具开发者和业务操作人员之间的权限分离;同时将智能体关键操作日志接入企业安全运营平台,通过行为基线分析及时识别异常操作,实现对高风险行为的实时预警与拦截。
业内专家认为,以OpenClaw为代表的AI智能体有望像当年的云计算一样深刻改变各行业的生产方式,但安全能力必须同步建设。只有在部署初期建立完善的安全机制,才能避免在规模化应用后付出更高的风险成本。随着各地持续加码支持AI智能体产业发展,360发布的这份安全部署指南也为行业提供了重要参考,为企业和开发者在快速创新与安全可控之间提供了一条可行路径。



