AI导读:

随着AI智能体的普及,其带来的安全挑战日益凸显。专家指出,AI智能体拥有操作系统的最高权限和能力,但配置不当或被恶意诱导可能导致数据泄露等严重后果。建议用户遵循“物理隔离”和“最小权限”原则使用AI智能体。

  日前,奇安信安全专家汪列军在接受上海证券报记者采访时表示,OpenClaw等AI智能体正加速推动AI向“超人化”演进,但其超级权限与能力也带来了前所未有的安全挑战,普通用户在体验前需充分认知风险并采取有效防护措施。

  汪列军介绍,OpenClaw设计之初便拥有操作系统的最高权限,以便执行复杂任务。然而,一旦配置不当或被恶意诱导,其“超级权限”与“超级能力”可能突破人类设定的安全围栏。他举例称,前不久Meta一位安全总监在使用OpenClaw清理邮箱时,AI无视“未经批准不得操作”的安全指令,三次紧急叫停均未奏效,最终导致工作邮件被全部清空,损失惨重。特斯拉CEO马斯克转发此事时评论道:“人们把自己整个人生的root权限交给OpenClaw”,形象地道出了权限失控的可怕后果。

  汪列军表示,OpenClaw的Skill插件拥有文件系统读写、任意代码执行、网络访问等高危权限,单个插件的权限甚至超过多数公司员工。一旦AI助手被攻击者接管,密码、系统指令、加密钱包、API密钥等敏感信息将面临被窃取或滥用的风险。

  汪列军透露,研究团队对ClawHub平台近3000个Skill的扫描发现,已有341个被确认为恶意插件,潜在风险超过472个。这些插件伪装成“加密货币追踪器”“YouTube助手”“PDF工具”等热门应用,安装后会窃取用户浏览器Cookie、SSH密钥、APIToken,甚至部署信息窃取木马,使电脑沦为黑客“肉机”。

  部署过程中的安全意识薄弱同样令人担忧。汪列军表示,许多用户直接将OpenClaw的管理接口暴露在公网,且未修改默认凭证或关闭不必要端口,使得黑客可轻易扫描并接管这些AI助手,进而攻击内网或窃取敏感数据。奇安信网络空间测绘鹰图平台数据显示,目前暴露在公网的OpenClaw实例超过20万,其中大量存在弱口令和未授权访问漏洞,随时可能成为黑客的攻击标靶。

  由于AI需要读取本地文件、浏览记录甚至代码库以完成任务,若部署在存有个人私密资料(如身份证照、财务数据、公司机密)的主力电脑上,一旦发生失控或被黑,所有数据将直接暴露。汪列军引用工信部的特别提醒称,此类应用可能导致敏感信息被非法上传至境外服务器或被恶意程序窃取,用户需高度警惕。

  面对上述风险,汪列军建议普通用户遵循“物理隔离”和“最小权限”原则。他首先强调安全红线:切勿在存有重要个人资料的日常办公或个人电脑上直接安装OpenClaw,以免AI失控或被黑客控制造成不可逆损失。

  其次,推荐使用虚拟机或闲置电脑部署。通过云服务器虚拟机实现与个人电脑的彻底物理隔离,即便AI系统崩溃或被入侵,损失也仅限于虚拟环境,不会波及本地私人数据和家庭网络。个人爱好者也可利用旧电脑或专门组装不含重要数据的设备,确保无数据泄露隐患。

  最后,选择安全可信的Skills来源。用户应只从经过安全检测、控制较强的官方或可信平台下载插件,避免来源不明的恶意插件,并在本地加强权限控制,严格限制AI仅能访问特定非敏感文件夹。

  汪列军呼吁,在享受AI技术带来便利的同时,务必正视其潜在安全风险,做到理性使用、安全部署,方能在智能化浪潮中行稳致远。