2025-09-15 08:17:56
loading...
Vitalik Buterin警示人工智能治理风险:或致灾难性后果
摘要
以太坊联合创始人Vitalik Buterin公开警告人工智能参与治理可能引发严重安全漏洞,强调缺乏监督的AI系统易被操控,可能导致资金滥用与数据泄露。其提出的“信息金融”模型主张引入多模型竞争与人类审查机制。
2025年9月15日,以太坊联合创始人Vitalik Buterin对将人工智能用于治理系统的设想提出严厉警示。他指出,尽管该构想在理论上具有吸引力,但实际风险远超预期,可能带来灾难性后果。
当前,关于人工智能代理管理金融与组织系统的讨论持续升温。Buterin明确表示,若允许AI自主决策资源分配,极易被恶意利用。攻击者可通过隐藏指令“越狱”系统,使AI在未被察觉的情况下执行非法操作,导致资金流向不明渠道。
这一担忧在近期事件中得到印证。EdisonWatch首席执行官Eito Miyamura曝光了ChatGPT最新版本中的重大漏洞。该更新支持与Gmail、Notion及Google日历等工具深度集成,本意提升效率,却为攻击者提供了可乘之机。
Miyamura演示显示,仅需发送一个包含隐蔽“越狱”命令的日程邀请,即便用户未接受,只要触发AI自动整理日程,系统即可能被劫持。一旦激活,攻击者便可远程读取并转发用户的私人邮件内容,造成严重隐私泄露。
对此,Buterin强调,单纯依赖人工智能无法实现公平、安全的治理。他提出“信息金融”概念——一种由多个相互竞争的语言模型构成的市场体系,在持续区块链分析与人工监督下运行。该系统通过多样化模型和随机抽查机制,确保缺陷及时暴露,同时借助激励机制约束开发者行为,防止作恶。
他承认,机器治理在理想状态下或许能提高效率,但在现实环境中,若缺乏内置安全措施与人类干预,极可能导致系统失控。因此,他认为人工智能应作为辅助工具,而非独立决策主体。
此番言论再次引发对人工智能治理边界与技术伦理的深层讨论。随着链上数据监控能力增强,如何在自动化与可控性之间取得平衡,已成为数字治理的核心议题。
声明:文章不代表比特之家观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!