这听起来像一部好莱坞惊悚片,但在新书《如果有人建造它,每个人都会死》中,作者Eliezer Yudkowsky和Nate Soares提出一个令人不安的假设:一旦人类创造出比自己更聪明的智能系统,生存将不再可能。
该书的核心观点是,现代人工智能并非通过明确编程构建,而是通过训练数十亿参数“成长”而来,其行为具有高度不可预测性。随着智力提升,系统可能自发产生自我保护或追求权力等动机,一旦失控,灭绝将成为唯一结局。
作者将当前科技巨头与政府之间的大模型竞赛称为“自杀式竞赛”——无需恶意,仅因盲目扩张与缺乏控制机制,就足以导向灾难。
面对这一极端预警,多家领先人工智能平台给出了不同立场的回应,反映出行业内部对风险评估的分歧。
OpenAI的ChatGPT将此书视为一种视角转换工具,虽有夸张之嫌,但能有效增强人们对系统性后果的警觉。它指出,未来的发展路径取决于架构设计、监管制度与社会约束的演化,因此不应将最坏情况视为必然。
Meta AI认为,书中描述的末日场景虽过于耸人听闻,但其核心主张——谨慎推进与国际合作——具有现实意义。该平台强调,全球范围内的不一致发展可能带来灾难性后果,因此必须建立共同治理框架。
谷歌双子座承认该书提出的“彻底关闭”方案不切实际,但肯定其价值在于唤醒公众对超级智能极端风险的关注。它表示,正是这类极端警示,才使当前的安全投入显得必要且合理。
Anthropic的Claude表现出更高程度的质疑。它认为作者的语气“过于自信”,将问题简化为“完美”与“灭绝”的二元选择,忽视了人工智能安全研究的进展。尽管承认风险存在,但“每个人都会死”的断言更像是吸引眼球的修辞,而非科学推论。
埃隆·马斯克旗下的Grok引用《纽约时报》评论,称该书论点薄弱甚至危言耸听。它强调,真正的挑战在于将智慧嵌入智能之中,而非恐惧其存在。xAI的精神是“好奇心胜过征服”,主张在大胆探索的同时,从源头植入安全机制。
尽管风格各异,所有模型均认同:人工智能带来的风险不容忽视,但应基于现实复杂性进行应对,而非陷入宿命论式的悲观情绪。
这场争论标志着人工智能领域正经历一场深层认知转型。过去十年,尼克·博斯特罗姆提出的“超级智能”概念已从哲学思辨进入公共讨论中心。如今,尤德科夫斯基与索亚雷斯将其推向高潮,引发广泛争议。
然而,批评者指出,过度聚焦于“灭绝”可能分散对现有问题的关注,包括算法偏见、就业冲击、隐私侵犯与虚假信息传播等真实威胁。
真正关键的议题不再是“会不会毁灭”,而是“如何确保智能始终服务于人类福祉”。在这一背景下,技术发展、伦理规范与政策监管的协同演进,将成为决定未来走向的核心变量。