编程语言应用

首页 » 常识 » 预防 » Bagua来自快手的Rust语言实
TUhjnbcbe - 2021/11/9 0:57:00
整理

钰莹近日,快手和苏黎世理工宣布开源分布式训练框架Bagua(八卦),相比于PyTorch、TensorFlow等现有深度学习开源框架仅针对系统层面进行优化,Bagua突破了这一点,专门针对分布式场景设计了特定的优化算法,实现了算法和系统层面的联合优化,性能较同类提升60%。研发背景

随着摩尔定律的失效,单个计算单元的能力已经远远无法满足数据的指数级增长。比如,快手每天上传的新视频超过千万条,即便训练简单的分类模型(比如ResNet),使用单机单卡的算力,训练快手日内新增视频都需要超过一百天的时间。因此,在数据爆炸性增长的互联网行业,多机多卡的并行训练成为了大数据时代的必然。随着深度学习模型功能的日益强大,分布式训练任务的通信成本和所需算力也随之急剧增长。

然而,由于多机多卡并行带来的额外通讯成本,加速比(speedup)经常让大家失望,从而形成了大厂“堆资源”,没资源的“干瞪眼”的局面。比如,Google的Downpour框架[1]使用80个GPU训练ImageNet,加速比却只有12/80=15%。因此如何提升多机多卡中训练的通讯效率成为了并行训练乃至解决数据爆炸性增长的核心问题之一。

项目GitHub

1
查看完整版本: Bagua来自快手的Rust语言实