DeepSeek 开源进度 2/5:首个用于 MoE 模型训练和推理的 EP 通信库 DeepEP
发布时间:2025-02-25 11:02:28来源:
2 月 25 日,DeepSeek 在 “开源周” 的第二天向公众开源了 DeepEP。据介绍,DeepEP 是第一个用于 MoE (混合专家) 模型训练和推理的 EP (Expert Parallelism,专家并行) 通信库,可以实现高效且优化的全对全通信,支持包括 FP8 在内的低精度运算,适配现代高性能计算需求。
同时,DeepEP 针对 NVLink 到 RDMA 的非对称带宽转发场景进行了深度优化,不仅提供了高吞吐量,还支持 SM (Streaming Multiprocessors) 数量控制,兼顾训练和推理任务的高吞吐量表现。对于延迟敏感的推理解码场景,DeepEP 还提供了纯 RDMA 的低延迟内核,支持自适应路由,能实现更灵活的 GPU 资源控制,满足不同场景需求。
(责编: admin1)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。