——全球首个双轨并行优化方案开源,大模型训练成本或降40%
北京时间今日午间,国内AI独角兽深度求索(DeepSeek)在开源周第四日祭出“王炸组合”——正式开源双向管道并行算法DualPipe与专家并行负载均衡器EPLB。这两项源自DeepSeek-V3训练体系的核心技术,直击千亿参数大模型训练的算力瓶颈,GitHub首发5小时即登热榜首位,开发者社区惊呼“分布式训练的Game Changer来了”。
1. DualPipe:让GPU“喘口气”的时空魔术
2. EPLB:AI世界的“智能交通指挥官”
据第三方测算,组合使用两项技术可使千亿参数模型的单次训练成本下降38%-42%。某自动驾驶公司CTO向快科技透露:“原本需要2000张H100的训练任务,现在1200张卡就能完成,仅硬件投入就省下2.4亿元。”
这背后是残酷的商业现实:2024年全球AI训练算力支出突破820亿美元,但超35%资源浪费在通信等待与负载不均。DeepSeek技术负责人坦言:“我们开源的不仅是代码,更是重新定义算力价值的标尺。”
GitHub数据显示,DualPipe仓库发布3小时即获544星,EPLB被fork超200次。著名开源社区LF AI基金会评价称:“这是首个同时优化计算流与资源调度的完整方案,堪比AI界的Kubernetes。”
值得关注的是,DeepSeek此次未像惯例采用Apache协议,而是选择更开放的MIT许可证。分析人士指出,这与其正在构建的“AI算力联盟”战略密切相关——通过降低生态伙伴的合规成本,加速技术标准的普及。
未来已来:当谷歌、Meta还在为TPU集群的封闭生态鏖战时,DeepSeek正用开源利剑劈开新赛道。据知情人士透露,已有三家云厂商计划基于DualPipe+EPLB打造新一代AI训练云服务。这场由中国人主导的算力效率革命,或将重塑全球AI基础设施的权力版图。
相关文章
激战中国AI之巅:阿里云Qwen2.5硬刚DeepSeek-V3,AGI竞赛进入白热化
算力狂潮下的颠覆性革命:中国AI黑马DeepSeek引爆全球资本变局
MiniMax-01:引领下一代大模型技术,开启“Transformer时刻”
雷军、刘德华、张文宏成为AI深度合成侵权受害者,法律与技术挑战并存