作者:Lucas Tcheyan、Arjun Yenamandra,来源:Galaxy Research,编译:比特之家
过去一年,去中心化训练已从理论构想演变为可运行的生产级系统。以Nous Research、Prime Intellect、Pluralis、Templar和Gensyn为代表的项目,在通信优化、激励机制与验证架构上取得实质性进展,标志着该领域正从技术可行性验证迈向规模化应用。
去中心化训练的核心挑战在于地理分散节点间的通信开销。对此,多家机构提出创新解决方案。Nous Research开发的DeMo与DisTrO优化器将通信量降低10至1000倍,通过分离动量更新与共享数据,仅同步关键参数。其最新框架Psyche进一步引入异步训练与压缩技术,使通信负载再降3倍,确保GPU利用率接近集中式系统。
Pluralis Research则另辟蹊径,采用模型并行策略,将大模型拆分至多个低端消费级GPU上训练。其协议学习框架在四大洲的80兆每秒家庭宽带下成功训练出80亿参数模型,收敛性能与数据中心集群相当,证明了低带宽环境下的可行性。其论文被ICML接收,标志着学术界对去中心化训练的认可。
2025年5月,Nous Research正式启动规模达400亿参数的Consilience训练项目,使用约20万亿个token进行预训练,目前运行平稳。这一里程碑事件表明,去中心化训练已具备处理中型以上模型的能力。
Prime Intellect于2024年10月完成首个100亿参数模型INTELLECT-1的分布式训练,覆盖三大洲五国。2025年4月,其推出的INTELLECT-2项目更进一步,基于阿里QwQ-32B模型,采用强化学习后训练,并通过PRIME-RL框架实现完全异步,解决了跨设备协调难题。
Templar成为唯一在实时网络上运行的去中心化训练协议。其基于Bittensor子网的架构,通过代币化激励机制(TAO & gamma)分配奖励,矿工与验证者根据贡献质量获得份额。截至9月初,其每日发行量占TAO总量的4%,排名前六,显示出市场对其能力的信心。
Pluralis提出“协议模型”理念,主张将模型权重拆分,使每个贡献者拥有部分所有权,形成类似股权的收益结构。该模式旨在解决传统资金池激励下的效率问题,鼓励资源投向高潜力项目,但其具体实施仍需进一步验证。
Gensyn推出Verde验证层,利用“可复现算子”(RepOps)确保跨硬件结果一致。当输出不一致时,裁判系统仅重算分歧点,成本仅为传统加密证明的百分之一。其Judge系统更实现可验证的AI评估,为去中心化推理提供可靠基础。
Templar的Gauntlet系统通过OpenSkill算法动态评分矿工表现,高技能者影响更大,有效防止低质贡献。这种基于绩效的治理机制,是去中心化训练走向可持续的关键一步。
尽管进展显著,去中心化训练仍面临多重挑战。首先,硬件差距依然存在——中心化实验室如NVIDIA已发布性能提升2.6倍的B200芯片,而去中心化网络需持续迭代堆栈以保持竞争力。
其次,分发与货币化仍是瓶颈。领先企业凭借品牌、云集成与用户渠道占据优势,而去中心化项目缺乏直接触达用户的路径。尽管开源模型能产生网络效应,但如何实现可持续收入仍待破解。
最后,监管风险不容忽视。欧盟《人工智能法案》与美国潜在出口管制可能限制开放模型训练。若出现滥用案例,或将引发全面审查,威胁无需许可原则。
去中心化训练不仅是技术路线之争,更是价值取向的碰撞。它试图构建一个无需许可、全球可参与、成果共享的人工智能生态系统。即便短期内无法超越中心化巨头,只要有一个项目能证明开放性带来更快迭代或更优架构,便将是加密与人工智能融合的真正转折点。
当前,技术壁垒正在瓦解,观念转变已然发生。从会议冷遇,到如今广泛讨论,去中心化训练的合法性正在确立。未来之路虽长,但核心要素——全球协作、透明验证、激励相容——已初步成型。这不仅是对计算资源的重新分配,更是一次对人工智能权力结构的深层重构。