2025年2月25日,DeepSeek在开源周第二日宣布,成功开源DeepEP,这是第一个专为Mixture of Experts(MoE)模型训练和推理设计的开源EP通信库。DeepEP旨在提升MoE模型的计算效率,提供高效的节点内和节点间通信,优化GPU资源管理,并为AI开发者提供更灵活、低延迟的解决方案。1. DeepEP通信库:MoE模型的高效支持DeepEP是专门为MoE(Mixture...