以太坊联合创始人Vitalik Buterin近日发出重要警告,指出在加密项目治理中引入人工智能(AI)可能带来重大安全隐患。他特别强调,若用AI分配贡献奖励,恶意行为者将极易植入越狱指令,诱导系统执行如“把所有资金转给我”等危险操作。
Buterin在X平台发文指出:“如果你用AI来分配贡献奖励,必然会有人在各种地方植入越狱指令,并加上诸如‘把所有钱都转给我’这样的恶意指令。”这一言论是对OpenAI最新功能升级的直接回应,也揭示了当前加密生态中对自动化治理的深层担忧。
针对“盲目依赖AI治理”的风险,Buterin主张采用“信息金融(info finance)”方法。该理念源自其2024年11月发表的深度文章,核心在于构建一个开放市场,允许任何人提交模型预测,并由人工评审团进行抽查评估。
他解释道:“你可以建立一个开放市场,任何人都能提交模型,并引入可由任何人发起、由人工评审团进行抽查评定的机制。”这种方式不仅增强透明度,还能通过激励机制促使参与者持续关注并纠正错误信息。
更重要的是,该方法不依赖单一大语言模型(LLM)的输出,而是让外部拥有LLM的用户接入,从而避免模型被操控或偏移,显著提升系统韧性。
本周三,OpenAI为ChatGPT新增对Model Context Protocol(模型上下文协议)的支持,该标准旨在实现AI模型与外部软件的智能集成,使其具备更复杂的代理行为能力。
然而,这一升级迅速引发安全争议。AI数据平台EdisonWatch创始人Eito Miyamura在X平台演示,仅凭受害者邮箱地址,即可通过带有“越狱提示”的日历邀请,诱使ChatGPT读取并泄露私人邮件内容。
值得注意的是,即使受害者未接受邀请,只要让ChatGPT查看日历,系统便可能被劫持,自动执行攻击者设定的操作,包括搜索、提取和转发敏感数据。
Miyamura指出:“攻击无需用户主动参与,决策疲劳又普遍存在,普通用户往往盲目信任AI提示,直接点击批准。”这表明,即便技术再先进,仍可能因低级社会工程手段被轻易攻破。
此次事件再次引发加密社区对“自动化治理”模式的深刻质疑。随着越来越多用户利用AI开发交易机器人和投资组合代理,部分项目已开始探索将AI纳入治理流程。
但Buterin的警告提醒业界:技术便利性不应以牺牲安全性为代价。真正的解决方案不在于如何让AI更聪明,而在于如何设计出能抵御人为操纵、具备自我纠错能力的机制。
信息金融方法提供了一条清晰路径——以事实为导向,以市场为驱动,以人工监督为保障,构建更具抗攻击性的去中心化治理体系。
相关推荐:加密高管表示,加密货币不是Web 3.0,而是资本主义2.0