主流观点长期认为,模型参数越多,越能逼近人类思维方式。然而,浙江大学研究团队于4月1日在《Nature Communications》上发表的一项研究挑战了这一共识(原文链接)。他们通过对SimCLR、CLIP、DINOv2等主流视觉模型的系统分析发现:随着模型规模扩大,对具体对象的识别准确率持续上升,但对抽象概念的理解能力不仅未提升,反而出现下滑。
研究数据显示,当模型参数从2206万增至3.0437亿时,具体概念任务的准确率由74.94%升至85.87%,表现显著增强。然而,在抽象概念任务中,准确率却从54.37%降至52.82%。这一反差凸显出当前主流大模型在高层次认知上的结构性短板——它们擅长“认得”,却不擅长“理解”。
人类大脑处理信息时采用的是层级化分类体系。例如,面对天鹅和猫头鹰,尽管外形迥异,人们仍会将其归入“鸟”类,再进一步纳入“动物”范畴。这种基于语义关系的组织方式使人类能在遇到新事物时迅速关联已有知识,实现快速迁移与推理。而当前多数AI模型依赖统计规律进行模式匹配,对高频出现的具体对象反应灵敏,但在缺乏足够样本的抽象类别面前则束手无策。
为突破这一瓶颈,浙大团队提出一种创新方法:通过少量人类观看图像时的脑电活动信号,对深度神经网络进行监督训练。该方法的核心在于将人脑中自然形成的概念结构“注入”模型,使其学习人类如何归纳相似概念、建立层级关系。
实验结果显示,在仅使用150个已知类别和50个未知测试类别的条件下,随着训练推进,模型内部表征与真实脑信号之间的距离逐渐缩小。这意味着模型不再只是记忆特征,而是开始掌握类似人类的概念组织逻辑。尤其在生物与非生物区分等抽象任务中,性能平均提升20.5%,甚至超越参数量更大的传统模型。
过去几年,行业普遍遵循“模型越大越好”的发展路径。但浙大研究提示我们:单纯扩大规模并不能带来真正的智能跃迁。要实现类人级的抽象理解与泛化能力,关键在于重构模型的认知结构——让其具备人类那样的层次化、可迁移的知识体系。
这一发现也引发更深层思考:AI的成长不应仅限于训练阶段。未来,真正具备进化潜力的AI agent,需要在真实环境中持续学习、验证、反馈并自我优化。像Neosoul这样的系统正在探索这一方向,通过构建闭环决策机制,推动AI从“被动响应”走向“主动演化”。无论是浙大团队的脑启发训练,还是下一代AI系统的自主成长路径,共同指向一个目标——让机器不仅能回答问题,更能学会如何思考。