当前位置: 首页 > news >正文

做进口货的电商网站你知道的在线视频观看的

做进口货的电商网站,你知道的在线视频观看的,点击图片是网站怎么做,泉州网站建设方案详细作者 | 旷视研究院 编辑 | Linda 基于梯度检查点的亚线性显存优化方法 [1] 由于较高的计算 / 显存性价比受到关注。MegEngine 经过工程扩展和优化#xff0c;发展出一套行之有效的加强版亚线性显存优化技术#xff0c;既可在计算存储资源受限的条件下#xff0c;轻松训练更深… 作者 | 旷视研究院 编辑 | Linda 基于梯度检查点的亚线性显存优化方法 [1] 由于较高的计算 / 显存性价比受到关注。MegEngine 经过工程扩展和优化发展出一套行之有效的加强版亚线性显存优化技术既可在计算存储资源受限的条件下轻松训练更深的模型又可使用更大 batch size进一步提升模型性能稳定 batchwise 算子。使用 MegEngine 训练 ResNet18/ResNet50显存占用分别最高降低 23%/40%在更大的 Bert 模型上降幅更是高达 75%而额外的计算开销几乎不变。该技术已在 MegEngine 开源欢迎大家上手使用https://github.com/MegEngine深度神经网络训练是一件复杂的事情它体现为模型的时间复杂度和空间复杂度分别对应着计算和内存而训练时内存占用问题是漂浮在深度学习社区上空的一块乌云如何拨云见日最大降低神经网络训练的内存占用是一个绕不开的课题。GPU 显卡等硬件为深度学习提供了必需的算力但硬件自身有限的存储限制了可训练模型的尺寸尤其是大型深度网络由此诞生出一系列相关技术比如亚线性显存优化、梯度累加、混合精度训练、分布式训练进行 GPU 显存优化。其中亚线性显存优化方法 [1] 由于较高的计算 / 显存性价比备受关注旷视基于此经过工程扩展和优化发展出加强版的 MegEngine 亚线性显存优化技术轻松把大模型甚至超大模型装进显存也可以毫无压力使用大 batch 训练模型。这里将围绕着深度学习框架 MegEngine 亚线性显存优化技术的工程实现和实验数据从技术背景、原理、使用、展望等多个方面进行首次深入解读。背  景 在深度学习领域中随着训练数据的增加需要相应增加模型的尺寸和复杂度进行模型「扩容」而 ResNet [2] 等技术的出现在算法层面扫清了训练深度模型的障碍。不断增加的数据和持续创新的算法给深度学习框架带来了新挑战能否在模型训练时有效利用有限的~~ 计算~~ 存储资源尤其是减少 GPU 显存占用是评估深度学习框架性能的重要指标。在计算存储资源一定的情况下深度学习框架有几种降低显存占用的常用方法其示例如下通过合适的梯度定义让算子的梯度计算不再依赖于前向计算作为输入从而 in-place 地完成算子的前向计算比如 Sigmoid、Relu 等   在生命周期没有重叠的算子之间共享显存   通过额外的计算减少显存占用比如利用梯度检查点重新计算中间结果的亚线性显存优化方法 [1]   通过额外的数据传输减少显存占用比如把暂时不用的数据从 GPU 交换到 CPU需要时再从 CPU 交换回来。上述显存优化技术在 MegEngine 中皆有不同程度的实现这里重点讨论基于梯度检查点的亚线性显存优化技术。原   理 一个神经网络模型所占用的显存空间大体分为两个方面 1)模型本身的参数。2)模型训练临时占用的空间包括参数的梯度、特征图等。其中最大占比是 2)中以特征图形式存在的中间结果比如从示例 [1] 可知根据实现的不同从 70% 到 90% 以上的显存用来存储特征图。这里的训练过程又可分为前向计算反向计算和优化三个方面其中前向计算的中间结果最占显存还有反向计算的梯度。第 1)方面模型自身的参数内存占用最小。 MegEngine 加强版亚线性显存优化技术借鉴了 [1] 的方法尤其适用于计算存储资源受限的情况比如一张英伟达 2080Ti只有 11G 的显存而更贵的 Tesla V100最大显存也只有 32G。   图 1亚线性显存优化原理其中 (b) 保存了 Relu 结果实际中 Relu 结果可用 in-place 计算图 1(a) 给出了卷积神经网络的基本单元它由 Conv-BN-Relu 组成。可以看到反向计算梯度的过程依赖于前向计算获取的中间结果一个网络需要保存的中间结果与其大小成正比即显存复杂度为 O(n)。本质上亚线性显存优化方法是以时间换空间以计算换显存如图 1(b) 所示它的算法原理如下选取神经网络中 k 个检查点从而把网络分成 k 个 block需要注意的是初始输入也作为一个检查点前向计算过程中只保存检查点处的中间结果   反向计算梯度的过程中首先从相应检查点出发重新计算单个 block 需要的中间结果然后计算 block 内部各个 block 的梯度不同 block 的中间结果计算共享显存。这种方法有着明显的优点即大幅降低了模型的空间复杂度同时缺点是增加了额外的计算   显存占用从 O(n) 变成 O(n/k) O(k)O(n/k) 代表计算单个节点需要的显存O(k) 代表 k 个检查点需要的显存 取 ksqrt(n)O(n/k) O(k)~O(sqrt(n))可以看到显存占用从线性变成了亚线性   因为在反向梯度的计算过程中需要从检查点恢复中间结果整体需要额外执行一次前向计算。工   程 在 [1] 的基础上MegEngine 结合自身实践做了工程扩展和优化把亚线性显存优化方法扩展至任意的计算图并结合其它常见的显存优化方法发展出一套行之有效的加强版亚线性显存优化技术。亚线性优化方法采用简单的网格搜索(grid search)选择检查点MegEngine 在此基础上增加遗传算法采用边界移动、块合并、块分裂等策略实现更细粒度的优化进一步降低了显存占用。如图 2 所示采用型号为 2080Ti 的 GPU 训练 ResNet50分别借助基准、亚线性、亚线性 遗传算法三种显存优化策略对比了可使用的最大 batch size。仅使用亚线性优化batch size 从 133 增至 211是基准的 1.6x而使用亚线性 遗传算法联合优化batch size 进一步增至 262较基准提升 2x。图 2三种显存优化方法优化 batch size 的对比ResNet50 通过选定同一模型、给定 batch size可以更好地观察遗传算法优化显存占用的情况。如图 3 所示随着迭代次数的增加遗传算法逐渐收敛显存占用并在第 5 次迭代之后达到一个较稳定的状态。图 3遗传算法收敛示意图 此外MegEngine 亚线性优化技术通过工程改良不再局限于简单的链状结构和同质计算节点, 可用于任意的计算图计算节点也可异质从而拓展了技术的适用场景并可配合上述显存优化方法进一步降低模型的显存占用。实  验 MegEngine 基于亚线性显存技术开展了相关实验这里固定 batch size64在 ResNet18 和 ResNet50 两个模型上考察模型训练时的显存占用和计算时间。   如图 4 所示相较于基准实现使用 MegEngine 亚线性显存技术训练 ResNet18 时显存占用降低 32% 计算时间增加 24%在较大的 ReNet50 上显存占用降低 40%计算时间增加 25%。同时经过理论分析可知模型越大亚线性显存优化的效果越明显额外的计算时间则几乎不变。图 4MegEngine 亚线性优化技术实验显存 / 时间对比ReNet18/ReNet50 在更大模型 Bert 上实验数据表明借助 MegEngine 亚线性显存技术显存占用最高降低 75%而计算时间仅增加 23%这与理论分析相一致。有兴趣的同学可前往 MegEngine ModeHub 试手更多模型实验https://megengine.org.cn/model-hub/。使  用 MegEngine 官网提供了亚线性显存优化技术的使用文档。当你的 GPU 显存有限苦于无法训练较深、较大的神经网络模型或者无法使用大 batch 进一步提升深度神经网络的性能抑或想要使 batchwise 算子更加稳定那么MegEngine 亚线性显存优化技术正是你需要的解决方案。上手 MegEngine 亚线性优化技术非常便捷无需手动设定梯度检查点通过几个简单的参数轻松控制遗传算法的搜索策略。具体使用时在 MegEngine 静态图接口中调用 SublinearMemoryConfig 设置 trace 的参数 sublinear_memory_config即可打开亚线性显存优化from megengine.jit import trace, SublinearMemoryConfigconfig SublinearMemoryConfig()trace(symbolicTrue, sublinear_memory_configconfig)def train_func(data, label, *, net, optimizer): ...MegEngine 在编译计算图和训练模型时虽有少量的额外时间开销但会显著缓解显存不足问题。下面以 ResNet50 为例说明 MegEngine 可有效突破显存瓶颈训练 batch size 从 100 最高增至 200import osfrom multiprocessing import Processdef train_resnet_demo(batch_size, enable_sublinear, genetic_nr_iter0): import megengine as mge import megengine.functional as F import megengine.hub as hub import megengine.optimizer as optim from megengine.jit import trace, SublinearMemoryConfig import numpy as np print( Run with batch_size{}, enable_sublinear{}, genetic_nr_iter{}.format( batch_size, enable_sublinear, genetic_nr_iter ) ) # 使用 GPU 运行这个例子 assert mge.is_cuda_available(), Please run with GPU try: # 我们从 megengine hub 中加载一个 resnet50 模型。 resnet hub.load(megengine/models, resnet50) optimizer optim.SGD(resnet.parameters(), lr0.1,) config None if enable_sublinear: config SublinearMemoryConfig(genetic_nr_itergenetic_nr_iter) trace(symbolicTrue, sublinear_memory_configconfig) def train_func(data, label, *, net, optimizer): pred net(data) loss F.cross_entropy_with_softmax(pred, label) optimizer.backward(loss) resnet.train() for i in range(10): batch_data np.random.randn(batch_size, 3, 224, 224).astype(np.float32) batch_label np.random.randint(1000, size(batch_size,)).astype(np.int32) optimizer.zero_grad() train_func(batch_data, batch_label, netresnet, optimizeroptimizer) optimizer.step() except: print(Failed) return print(Sucess)# 以下示例结果在 2080Ti GPU 运行得到显存容量为 11 GB# 不使用亚线性内存优化允许的 batch_size 最大为 100 左右p Process(targettrain_resnet_demo, args(100, False))p.start()p.join()# 报错显存不足p Process(targettrain_resnet_demo, args(200, False))p.start()p.join()# 使用亚线性内存优化允许的 batch_size 最大为 200 左右p Process(targettrain_resnet_demo, args(200, True, 20))p.start()p.join(展  望 如上所述MegEngine 的亚线性显存优化技术通过额外做一次前向计算即可达到 O(sqrt(n)) 的空间复杂度。如果允许做更多次的前向计算对整个网络递归地调用亚线性显存算法有望在时间复杂度为 O(n log n) 的情况下达到 O(log n) 的空间复杂度。更进一步MegEngine 还将探索亚线性显存优化技术与数据并行 / 模型并行、混合精度训练的组合使用问题以期获得更佳的集成效果。最后在 RNN 以及 GNN、Transformer 等其他类型网络上的使用问题也是 MegEngine 未来的一个探索方向。了解更多信息请查询MegEngine GitHubhttps://github.com/MegEngineMegEngine 官网https://megengine.org.cnMegEngine ModelHubhttps://megengine.org.cn/model-hub/参考文献Chen, T., Xu, B., Zhang, C., Guestrin, C. (2016). Training deep nets with sublinear memory cost. arXiv preprint arXiv:1604.06174.  He, K., Zhang, X., Ren, S., Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).你也「在看」吗?
http://www.pierceye.com/news/64345/

相关文章:

  • 企业网站模板大全长春定制建站企业网站
  • 营口房地产网站开发十大旅游网站排名
  • 网站开发项目需求方案华为用了哪些网络营销方式
  • 可以通过哪些网站注册域名网站 商城 app 建设
  • 系统网站怎么做的建设工程合同包括
  • 安丘做网站雨云服务器
  • 网站如何做提现功能wordpress 给标签加id
  • 南京网站策划公司专业网站优化电话
  • 南京高端网站设计网页传奇单职业
  • 如何建设个人网站宣传片制作公司营业范围要求
  • 怎么做网站推广实际效果好无锡网站建设无锡速联科技
  • 厦门做网站 厦门专业做网站的公司 我想做网站58同城网招聘招聘
  • 网站建设开发服务费怎么做分录如何去注册一个公司
  • 沈阳网站优化培训潍坊企业网站模板
  • 使页面具有动态效果的网站建设技术是12306网站如何做火车票候补
  • 宁夏网站建设联系电话网站标题更改后要多久才能收录
  • 外贸英文网站建设价格中国培训网是国家公认的吗
  • 本科学院网站建设方案龙海市邦策网站建设平台
  • 网站开发团队名称用ai做网站
  • 网站地图制作软件做360优化网站都有哪家
  • 在哪些软件上建设网站windows优化大师的作用
  • 衡阳高端网站建设做个医院网站多少钱
  • 写作文网站wordpress高级轮播
  • 找施工员在哪个网站上找wordpress 发布视频
  • 西红柿怎么做网站wamp做的网站外网怎么访问
  • 网站ftp管理工具怎么做示爱的网站
  • 峨边网站建设学前端要逛那些网站
  • 微餐饮建站费用天猫优惠券网站怎么做
  • 搜狐网站建设的建议网站开发平台开发
  • 网站开发属于商标哪个类别网站建设优化课程