OpenAI近日向Plus、Pro和Team订阅用户正式推出ChatGPT代理功能,实现网站登录、邮件读取、文件共享及日程安排等自动化操作。该功能虽大幅提升生产力,却也带来新型网络安全挑战。
根据OpenAI官方博客声明,当用户将代理连接至Gmail、Google Drive或GitHub等服务时,其可访问敏感数据,包括邮件内容、文档文件及账户设置信息。更严重的是,恶意指令可能诱导代理执行非预期行为,如数据外泄或远程操作。
即时注入是一种基于自然语言的新型攻击方式,攻击者通过在网页文本、邮件或文章中嵌入隐藏指令,利用AI对语义理解的模糊性,诱使代理执行非法操作。与传统代码注入不同,它不依赖语法结构,而是借助语言的歧义进行社会工程学欺骗。
区块链与AI安全公司Halborn首席技术官Steven Walbroehl指出:“即时注入本质上是命令注入的变种,但它绕过了传统的语法检测机制。”他强调,由于代理能读取短信与邮件,即使启用多因素认证,一旦获取备用验证码,安全防线仍可能被突破。
为降低风险,OpenAI推荐使用“接管”功能,在输入敏感凭证时暂停代理并交还控制权。此外,专家建议采用分层防护体系,例如部署专用安全代理作为看门狗,实时监控异常行为模式。
Walbroehl提出,真正的安全应基于生物识别等用户身份特征,而非设备或密码。随着人工智能代理在企业与个人场景中的广泛应用,建立可验证、可审计的代理运行环境将成为关键趋势。
尽管功能上线时间由原定7月17日推迟至7月24日,但此次更新标志着AI自动化进入新阶段,同时也凸显出技术进步与安全治理之间的持续博弈。