当前位置: 首页 > news >正文

网站建设免备案免费空间卖鱼的亲戚要我帮忙做网站

网站建设免备案免费空间,卖鱼的亲戚要我帮忙做网站,罗村网站开发,做床上用品网站编者按#xff1a;编译器在传统计算科学中一直是一个重要的研究课题。在人工智能技术快速发展和广泛应用的今天#xff0c;人工智能模型需要部署在多样化的计算机硬件架构上。同时#xff0c;训练和部署大型人工智能模型时又对硬件性能有着更高的要求#xff0c;有时还需根…编者按编译器在传统计算科学中一直是一个重要的研究课题。在人工智能技术快速发展和广泛应用的今天人工智能模型需要部署在多样化的计算机硬件架构上。同时训练和部署大型人工智能模型时又对硬件性能有着更高的要求有时还需根据硬件定制化代码。这些都对人工智能时代的编译器提出了新的更高的要求。 为了适应迅速发展的人工智能模型和加速硬件的需求微软亚洲研究院以设计和构建具有高度灵活性、高效性、可扩展的 AI 编译器架构为目标与海内外合作者展开研究并提出了一套包含 Rammer、Roller、Welder、Grinder 四款 AI 编译器的系统性解决方案将提升硬件并行利用率、提高编译效率、优化全局访存效率、优化控制流的高效执行等几大难题通通搞定。四篇相关论文已先后被2020年、2022年、2023年的 OSDI 大会接收。 编译是程序开发的一个重要步骤——把用高级语言书写的源代码翻译成在计算机硬件可执行的机器码而编译器就是实现这一功能的特殊应用程序。如今人工智能技术和大模型无疑是当今计算机领域的 C 位担当其自身的特性也对编译器提出了新的挑战。 从最初的 RNN、CNN 到 Transformer人工智能的主流模型架构在不断变化这意味着上层的应用程序也在随之改变。同时底层加速器硬件如 GPU、NPU 等也在快速迭代更新有些新的硬件设计甚至颠覆了之前的架构。那么要想让新的人工智能模型更好地运行在新的芯片等计算机硬件上就需要全新的 AI 编译器。 对此微软亚洲研究院的研究员们和国内外合作者围绕着 AI 编译器的核心问题展开了一系列研究工作并陆续推出了 AI 编译界的“工业重金属四部曲”Rammer、Roller、Welder、Grinder为当前主流的人工智能模型和硬件编译提供了系统性的创新解决方法。 基于统一切块tile抽象的四个核心 AI 编译技术 AI编译“夯土机”Rammer提升硬件并行利用率 深度神经网络DNN是当前图像分类、自然语言处理和许多其他人工智能任务中广泛采用的方法。由于其重要性许多计算设备如 CPU、GPU、FPGA 和专门设计的 DNN 加速器被用来执行 DNN 计算。其中影响 DNN 计算效率的关键因素之一是调度即决定在目标硬件上执行各种计算任务的顺序。现有的 DNN 框架和编译器通常将数据流图data flow graph中的 DNN 算子视为不透明的库函数并将它们调度到加速器上单独执行。同时这一过程还依赖于另一层调度器通常在硬件中实现来利用算子中可用的并行特性。这样的两层方法就导致了显著的调度开销并且通常不能充分利用可用的硬件资源。 为此研究员们提出了一种新的 DNN 编译器 Rammer它可以优化 DNN 工作负载在大规模并行加速器上的执行。事实上我们可以将进行 AI 编译时的调度空间想象成一个二维空间并将计算任务看作是可以被拆分成不同大小和形状的“砖块”调度的目的就是在二维空间的计算单元上将这些“砖块”像垒墙一样紧密排列起来最大程度地利用计算单元不留空隙因为一旦出现空隙不仅已有空间得不到有效利用而且还会影响“垒墙”的速度。而 Rammer 就是这个二维空间中的一台“夯土机”在将 DNN 程序翻译成“砖块”后可放置在芯片的不同计算单元上将其压实。 Rammer 技术框架 换言之Rammer 在编译时为 DNN 生成了有效的静态时空调度最大限度地减少了调度开销。同时通过为计算任务和硬件加速器提出的几个新的、与硬件无关的抽象使 Rammer 获得了更丰富的调度空间实现了算子间和算子内的协同调度从而可以全面利用并行性。这些新颖且具有启发式的方法让 Rammer 可以更好地探索空间并找到有效的调度大幅提高硬件利用率。 研究员们在 NVIDIA GPU、AMD GPU 和 Graphcore IPU 等多个硬件后端对 Rammer 进行了测试。实验表明Rammer 在 NVIDIA 和 AMD GPU 上的性能显著优于 XLA 和 TVM 等最先进的编译器加速比高达20.1倍。与 NVIDIA 的专有 DNN 推理库 TensorRT 相比加速比达3.1倍。 论文Rammer: Enabling Holistic Deep Learning Compiler Optimizations with rTasks AI编译“压路机”Roller提高编译效率 在计算机芯片上不仅有并行计算单元还有多层内存一个大的计算任务需要一层一层地向上传递并在这个过程中将任务逐层切分成更小的“砖块”最终交给最上层的处理器进行计算。这其中的难点在于如何把大的“砖块”铺满内存空间进而更好地利用内存并提升效率。目前已有的方法是通过机器学习进行搜索寻找更好的“砖块”切分策略但是这通常需要数千个搜索步骤每个步骤都要在加速器中进行评估以找到合理的解决方案所以这会花费大量的时间如编译一个完整模型甚至需要几天或几周。 研究员们认为在了解了计算逻辑和各内存层的参数也就是在已知软件和硬件信息的情况下其实完全可以估算出“砖块”切割的最佳方法和大小从而实现更快的编译。这也是 Roller 的设计思路它相当于一台压路机在考虑内存特性的前提下像铺地板一样把高维的张量数据平铺到二维的内存中找到最优的切块tile大小。同时它还封装了与底层加速器的硬件特性一致的张量形状通过限制形状选择来实现高效编译。 Roller 技术框架 通过对6种主流 DNN 模型和119种流行的 DNN 算子的评估表明Roller 可以在几秒内生成高度优化的内核尤其是对于大型昂贵的自定义算子。最终Roller 在编译时间上比现有的编译器实现了三个数量级的改进。Roller 生成的内核性能与包括 DNN 库在内的最先进的张量编译器的性能相当有些算子甚至表现更好。与此同时Roller 也已被用于微软内部开发的自定义 DNN 内核上在实际开发中验证了 Roller 可以显著加快开发周期的优越性能。 论文ROLLER: Fast and Efficient Tensor Compilation for Deep Learning AI编译“电焊机”Welder降低访存量提升计算效率 现代 DNN 模型对高速内存的要求变得越来越高在分析了一些最新的 DNN 模型后研究员们发现当前大部分 DNN 计算的瓶颈主要在于 GPU 的访存如这些模型对内存带宽利用率高达96.7%但计算核的平均利用率只有51.6%而且随着硬件与 DNN 模型的不断发展这两者之间的差距还会持续增大。尤其是当前的人工智能模型需要处理高保真度的数据如更大的图像、更长的句子、更高清的图形这些数据在计算中都占用了更多的内存带宽。同时更高效的专有计算核如TensorCore也进一步加大了内存压力。 为了解决内存问题研究员们提出了 Welder 深度学习编译器全面优化由通用算子组成的端到端 DNN 模型的内存访问效率。其实DNN 模型可以看作是由多个算子连成的一张图整个计算过程涉及多个阶段即数据需要流过不同的算子在每个阶段都需要将张量切分成块先搬运到处理器上进行计算然后再搬运回内存这就会造成很大的搬运开销。由于整个计算过程包含多个流程所以还可以将这一过程想象成逐层向上搬运“砖块”的场景其中第一个“工人”将“砖块”拿上去加工然后再放回去第二个“工人”再拿上来雕刻一下再放回去然后是第三个、第四个……反复搬运可以预想其中的开销不言而喻。那么是否可以让第一个“工人”在顶层完成一部分子任务后直接交给下一个“工人”继续处理然后再将多项任务“焊接”起来实现流水化作业呢Welder 正是扮演了电焊机这个角色通过链接不同的算子它可以让数据块以流水线的方式处理大大降低了访存量在近几年人工智能模型对访存效率要求越来越高的情况下可以大幅提升计算效率。 Welder 技术框架 在对10个主流的 DNN 模型包括用于各种任务的经典和最新模型结构如视觉、自然语言处理、3D 图形等进行评估后可以表明Welder 在 NVIDIA 和 AMD 的 GPU 上都显著超过了现有的主流框架和编译器如 PyTorch、ONNXRuntime 和 Ansor速度提升分别到达21.4倍、8.7倍和2.8倍。Welder 的自动优化甚至超过了 TensorRT 和 Faster Transformer最高可实现3.0倍和1.7倍的加速。此外当在 TensorCore 等具有更快计算核心的硬件上运行这些模型时其性能有了更大的提高突显了内存优化对未来人工智能加速器的重要性。 论文WELDER: Scheduling Deep Learning Memory Access via Tile-graph AI编译“研磨机”Grinder让控制流也能在加速器上高效执行 在计算程序中对数据块的搬运过程有时候需要引入一些更复杂的控制逻辑这就是人工智能程序数据流之外的控制流如循环地遍历一个句子中的每个单词或者根据输入动态决定执行哪一部分程序。当前的编译器大多都是在解决数据流问题对控制流的支持并不高效因此导致了控制流较多的模型无法高效利用加速器性能。研究员们认为可以将控制流和数据流切分重组以此来进行更高效的优化并推出了 Grinder[1]。Grinder 好像一个便携的研磨切割机它在把数据流切分成不同规模的并行计算块后会再把控制流融入数据流让控制流也能在加速器上高效执行。 Grinder 技术框架 Grinder 可以在硬件加速器上共同优化控制流和数据流的执行并通过一种新的抽象来统一包括控制流和数据流的人工智能模型的表示这就允许 Grinder 向较低级别的硬件并行性暴露用于重新调度控制流的整体调度空间。Grinder 使用启发式策略找到了有效的调度方案且能够自动将控制流移动到设备内核中进而实现了跨控制流边界的优化。实验表明Grinder 可以对控制流密集的 DNN 模型加速8.2倍是目前针对控制流的 DNN 框架和编译器中速度最快的一个。 论文Cocktailer: Analyzing and Optimizing Dynamic Control Flow in Deep Learning [1] Grinder 为项目名称论文中系统名称为 Cocktailer 基于同一套抽象和统一的中间表示层Intermediate RepresentationIR这四款 AI 编译器解决了当前 AI 编译器中的不同问题——并行、编译效率、内存、控制流构成了一套完整的编译解决方案。在推进研究的进程中微软亚洲研究院的编译原型系统已经为 Office、Bing、Xbox 等微软产品的部署和模型优化提供了帮助同时也在微软新型算子的定制和优化中发挥了作用。 “在大模型成为主流的今天人工智能模型对效率、算力有了更高的要求。一方面AI 编译器需要针对硬件资源做出极致的算子融合、定制和优化另一方面也需要对新型大规模硬件架构进行系统编译支持如片上网络互联NoC的芯片、混合内存架构等甚至通过白盒编译方法指导硬件定制。我们提出的这套 AI 编译器已被证明能够大幅提升 AI 编译的效率可以更好地助力人工智能模型的训练和部署。同时大模型的发展也为 AI 编译带来了机遇未来大模型本身或许就可以帮助我们实现优化和编译。”微软亚洲研究院首席研究员薛继龙表示。
http://www.pierceye.com/news/768225/

相关文章:

  • 国外网站 dns南京模板做网站
  • 河北企业网站建设技术江西省外省建设入库网站
  • 网站建设的概念如何将自己做的网站放到网上去
  • 网站维护明细报价表最新的网站建设架构
  • 百度大全seo推广话术
  • 做网站赚钱流程英文网站建设注意什么
  • 腾讯 云上做网站教程开源系统 网站
  • 临沂罗庄做网站服装商城网站建设价格
  • 保定企业官网搭建对网站有效的优化软件
  • 网站后台代码在哪修改股权众筹网站建设
  • 站群源码北京公司注销
  • 营销型网站策划建设台州市住房和城乡建设厅网站
  • 达内网站开发课程wordpress自动添加标签页
  • 免费的个人网站空间我做淘宝网站卖东西怎么激活
  • 织梦dedecms女性时尚门户网站模板常州网络推广平台
  • 网站怎么在百度搜不到资源网源码
  • 怎样网站制作设计广西住房城乡建设部官网
  • 手机网站建设方案书王烨是哪个小说的主角
  • 临沂网站案例百事可乐网络营销推广方法
  • 广州网站建设信科网络冷水滩网站建设
  • 做网站设计的价格企业seo网站营销推广
  • 河南省住房和建设厅门户网站网站开发图片素材
  • 在线代理浏览器网站设计本笔记本
  • gta5网站正在建设中柳州团购汽车网站建设
  • 建设一个网站要多少费用吗wordpress 缓存首页
  • 绵阳网站排名深圳哪家网页设计好
  • 软件 开发公司宿迁seo优化
  • 网站开发demo版本做网站服务器的配置
  • 网页游戏排行2013伊克昭盟seo
  • 单页站如何做网站seo优化建e网卧室设计效果图