首页 > 尚书苑 >

马斯克称遭遇大规模网络攻击;字节开源MoE架构优化技术

发布时间:2025-03-11 09:05:21来源:
字节跳动豆包大模型团队官宣开源一项针对MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升1.7 倍,成本节省40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。目前,COMET核心代码已开源,并计划兼容Triton等编译生态。

点评:短期看,训练效率提升1.7倍及成本节省40%显著优化了大模型研发经济性,有助于降低字节跳动AI业务的边际成本,增强其在大规模模型竞赛中的现金流优势。开源策略更可能通过技术普惠扩大生态影响力,吸引开发者共建算力网络,形成差异化竞争壁垒。然而,此举也可能引发市场对AI技术同质化加速的担忧,加剧头部企业间的算力军备竞赛。


(责编: admin)

版权声明:该文仅代表注册者发布,内容真实性请读者仅作参考自行核实。网站不代表立场不承担任何经济和法律责任.如涉及侵权联系1295306620处理。