当前位置: 首页 » 资讯 » 新科技 » 正文

DeepSeek发布开源第二弹:开源EP通信库DeepEP

IP属地 北京 编辑:顾雨柔 时间:2025-02-25 12:31:56

鞭牛士 2月25日消息,DeepSeek第二天的开源项目DeepEP正式发布。DeepSeek官方在X平台发文称,很高兴向大家介绍DeepEP——首个专为MoE(专家混合)模型训练和推理打造的开源EP通信库。

DeepEP可做到:

高效优化的全对全(all-to-all)通信;

支持节点内(intranode)和节点间(internode)通信,兼容 NVlink 和 RDMA;

训练与推理预填充(prefilling)阶段的高吞吐率计算核;

推理解码(decoding)阶段的低延迟计算核;

原生支持 FP8 数据调度;

灵活的 GPU 资源控制,实现计算与通信的重叠处理。

据介绍,DeepEP 是专为专家混合(MoE)和专家并行(EP) 设计的通信库,提供高吞吐、低延迟的全对全(all-to-all)GPU 计算核,也被称为 MoE dispatch 和 MoE combine。此外,该库还支持包括 FP8 在内的低精度计算操作。

据APPSO报道,说人话就是,DeepEP 是 MoE 模型的「通信管家」,通过软硬件协同优化,让专家之间的数据传递又快又省资源,大幅提升训练和推理效率。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新