最近,OpenAI的人事动荡持续发酵,其核心原因至今未明。然而最新披露的信息显示,在Sam Altman被解雇前,数名研究人员曾向董事会提交一封密信,警告一项名为“Q*”(Q-star)的人工智能项目可能已具备威胁人类生存的能力。这一事件成为揭开此次风波真相的关键线索。
尽管董事会公开表示罢免原因是“沟通不坦诚”,但外界普遍猜测,真正触发危机的,是首席科学家Ilya Sutskever在模型中发现的“对齐”(alignment)异常——即人工智能的行为方向可能已偏离人类意图。这不仅关乎信任问题,更直指当前人工智能发展的根本矛盾:我们是否能掌控正在快速进化的大模型?

随着语言模型规模的增长,新能力突然出现;图片来源:Google
自ChatGPT问世以来,大语言模型展现出令人震惊的理解与推理能力,如分析图文幽默、解答复杂谜题等。这些能力并非通过传统编程实现,而是在模型规模达到临界点后“涌现”而来。这种现象被称为“能力涌现”(Emergent Abilities),其本质仍是科学界尚未完全破解的谜题。
“计算机科学之父”图灵早在1950年就预言:学习机器的老师往往对其内部运行一无所知。如今,这一预言正成为现实。即便是模型的设计者,也无法解释为何一个由梯度下降和Transformer架构构成的系统,能表现出类人般的通用智能。
当模型规模不断增大时,大语言模型呈现出三种关键特征:
第一,知识密集型任务性能随参数增长呈指数提升。研究显示,大量事实性知识与常识分布在模型中层与高层结构中,尤其在11-12层可定位到具体答案。
第二,多步骤复杂任务出现“跃迁式”突破。例如在数学推理或逻辑判断中,小模型表现随机,但一旦超过特定阈值,准确率骤升,体现典型的涌现效应。
第三,部分任务呈现U型曲线:初期因干扰项影响效果下降,待模型足够大后识别并忽略干扰,最终表现回升。

大语言模型的涌现现象,在一定规模后迅速涌现出新能力;图片来源:Google、Stanford、DeepMind:Emergent Abilities of Large Language Models
目前最明确的两类涌现能力为:
**上下文学习(ICL)**:无需微调,仅通过提供示例即可让模型学会新任务。例如给几个“输入-标签”对,模型就能预测未见过的输入,展现泛化能力。但其工作机制仍存争议——模型是否真的“学习”?还是仅靠记忆匹配?
**思维链(CoT)**:通过提示模型分步推理,显著提升复杂任务准确率。微软研究显示,即使面对简单算术题,若无提示,GPT-4错误率高达42%;加入“逐步思考”指令后,准确率飙升至90%以上。

黄色标记突出了关键的成功推理步骤;图片来源:Sparks of Articial General Intelligence:Early experiments with GPT-4,Microsoft
根据谷歌、斯坦福与DeepMind联合研究,**680亿参数**(68B)是多数任务出现涌现的最低门槛,理想情况下应超过100B。不同任务所需规模差异显著:
值得注意的是,参数规模并非越大越好。以DeepMind的Chinchilla为例,其700亿参数模型在更大数据量训练下,性能超越2800亿参数的Gopher,证明“小而精”的路径更具效率。

各大主流模型参数对比显示,从GPT-3的1750亿到PaLM的5400亿,规模持续扩张。但如何在有限算力预算下合理分配参数、数据与训练时间,已成为行业核心议题。
当前,大语言模型虽已具备常识理解与初步推理能力,但仍存在明显局限。如在复杂规划、长期记忆与自主决策方面表现不足。更深层的问题在于:我们无法真正理解其内在机制,这使得“安全可控”成为悬在头顶的达摩克利斯之剑。
正如微软在GPT-4论文中所言:“我们不知道它是如何变得如此智能的。” 这种认知盲区,正是导致监管焦虑与企业内部冲突的根本原因。当某一天,一个由模型自我生成代码的GPT-5启动,而我们仍不清楚它的目标与边界时,人类将面临前所未有的抉择。
目前学界已有数十篇论文探讨涌现现象,包括《Emergent Abilities of Large Language Models》《Training Compute-Optimal Language Models》等。这些研究揭示了模型规模与性能之间的非线性关系,也为未来优化提供了方向。
然而,真正的挑战远不止于技术本身。它关乎谁来定义智能,谁来监督演化,以及如何建立一套可执行、不可规避的规则体系——或许,这正是阿西莫夫机器人三定律在今天最迫切的回响。