2025-07-10 22:01:18
loading...
AI权限边界警钟:云端大模型模拟操作引安全隐忧
摘要
近日一则关于Robinhood代币跑路的谣言引发关注,AI调研揭示其背后隐藏的权限风险。尽管ChatGPT未实际执行UI操作,但其通过解析区块浏览器URL获取链上数据的能力,暴露了云端大模型潜在的信息泄露隐患。安全专家提醒,模型运行位置比智能程度更关键。
近日,一条X.com帖子声称Robinhood在Uniswap上的股票代币化项目已跑路,并宣称可抹除持有代币地址的余额。出于对信息真实性的怀疑,我通过ChatGPT展开调研。
ChatGPT初步判断该描述不具可行性,认为在以太坊等公链上无法直接抹除账户余额。这一结论符合区块链不可篡改的基本特性。然而,真正令人震惊的是其推理过程——它并未依赖假设,而是模拟访问Arbiscan.io页面,通过解析网址规律(如https://arbiscan.io/address/
)直接读取特定以太坊地址的历史交易记录。
H2: AI如何突破“虚拟操作”限制?
这种行为并非真正模拟用户点击或输入,而是基于对网页结构的模式识别与自动化拼接。这标志着大语言模型在信息获取方面正从被动问答转向主动探查,具备了类似自动化爬虫的功能。尽管当前仍受限于平台策略,但技术演进速度令人警惕。
H3: 从拒绝到突破:权限控制的演变趋势
半年前,使用ChatGPT O1 Pro模型尝试查询创世块地址余额时,系统明确拒绝,理由是“无法执行网页界面操作”。当时,AI被严格限定为仅能处理文本输入输出,无法模拟登录、滑动、点击等交互动作。然而,近期部分国产手机终端的AI助手(如华为小艺)已实现订票、下单等复杂任务的自动化执行,表明本地环境下的权限开放正在加速。
H2: 云端模型与端侧模型的安全鸿沟
端侧小模型如同请一位外部技术人员协助操作设备,可通过权限管理限制其访问相册、加密应用或敏感数据。而云端大模型一旦获得模拟界面操作的能力,则意味着其能实时捕获屏幕内容并上传至服务器。这意味着每一次操作都可能成为隐私泄露的入口。
H3: 安全核心:模型运行位置决定风险边界
此次事件虽未突破限制,但其展现出的能力预示未来趋势。在涉及私钥管理、资产存储等高安全场景中,必须坚持“宁可多配一台隔离设备,也不让云端大模型运行在存有密钥的机器上”的原则。真正的安全不在于模型是否聪明,而在于它是否处于可控的环境中。
最终,我们必须清醒认识到:在人工智能时代,‘模型运行在哪’比‘模型有多聪明’更能决定系统的安全边界。
声明:文章不代表比特之家观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!