IT之家 3 月 10 日消息,字节跳动豆包大模型团队官宣开源一项针对 MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。
IT之家注意到,早前豆包团队发布了新一代稀疏架构 UltraMem,将模型推理成本砍掉 83%,此次,又开源了 COMET,向模型训练成本出手。
目前,COMET 核心代码已开源,并计划兼容 Triton 等编译生态。
论文链接:https://arxiv.org/pdf/2502.19811
开源地址:https://github.com/bytedance/flux
发表评论
2025-03-10 21:55:50回复
2025-03-11 03:57:11回复
2025-03-10 22:28:02回复
2025-03-11 03:26:01回复
2025-03-10 19:09:32回复
2025-03-11 05:10:49回复
2025-03-11 02:40:11回复
2025-03-10 23:52:17回复
2025-03-11 06:01:25回复
2025-03-11 00:33:39回复
2025-03-11 01:00:56回复
2025-03-11 01:29:04回复
2025-03-11 02:50:23回复