当前位置: 首页 > news >正文

百度智能建站怎么样如何设计一个公司网站步骤

百度智能建站怎么样,如何设计一个公司网站步骤,麦吉太原网站建设丽怎么代理,福州模板建站哪家好云布道师 本篇文章围绕生成式 AI 技术栈、生成式 AI 微调训练和性能分析、ECS GPU 实例为生成式 AI 提供算力保障、应用场景案例等相关话题展开。 生成式 AI 技术栈介绍 1、生成式 AI 爆发的历程 在 2022 年的下半年#xff0c;业界迎来了生成式 AI 的全面爆发#xff0c…云布道师 本篇文章围绕生成式 AI 技术栈、生成式 AI 微调训练和性能分析、ECS GPU 实例为生成式 AI 提供算力保障、应用场景案例等相关话题展开。 生成式 AI 技术栈介绍 1、生成式 AI 爆发的历程 在 2022 年的下半年业界迎来了生成式 AI 的全面爆发尤其是以 ChatGPT 为代表的大语言模型和以 Stable Diffusion 为代表的图片生成类模型。举个例子某幼儿园老师要求家长写一篇 1500 字的关于家庭教育法的心得体会ChatGPT 可以胜任这份工作各种 logo 也可以通过 Stable Diffusion 生成式模型来生成根据提示词生成各类图片。 1软件算法部分 生成式 AI 的爆发彻底突破了过往对 AI 应用的想象空间但从软件和算法角度生成式 AI 的全面爆发并非一蹴而就它是近三四十年所有研发人员、算法工程师以及科研人员的努力共同促成了当今生成式 AI 的爆发。 1986 年上世纪六七十年代被抛弃的神经网络重新回归主流研究领域。1987 年概率推理和机器学习算法引入将不确定性的数学建模以及随机梯度下降的学习算法引入到人工智能的主流算法研究领域。 21 世纪初随着互联网的爆炸式发展大数据技术被引入到各个领域包括生产、分析以及人工智能。近十年深度学习技术尤其火热即通过多层感知网络堆叠来提升模型泛化精度。这些算法基础设施的不断演进促成了生成式AI爆发。 2硬件部分 硬件部分也是促成当前生存式AI爆发的重要基础。如人工智能领域我们通常喜欢和人类大脑进行类比人脑约有 1011 个神经元神经元之间有 1010 个突触相当于可以达到每秒钟 1017的算力约为 0.1 EFLOPS。个人计算机目前还达不到人脑的算力GPU 集群的计算能力已经超过了人类大脑的算力先进的 GPU 计算集群已经可以达到 EFLOPS 的级别。因此算力也是目前生成式 AI 的重要硬件保障。 上图中展示了目前最典型的 GPU 3 模型的大致推算纵坐标 Petaflop/s-Days 表示要在一天之内训练一个模型算力需要达到的 Petaflop/s。GPT 3 的量级约为 10 的 4 次方的 Petaflop/s-Days如果使用千卡的 A100 组成集群大致需要一个月的时间训练完 GPT 3 的预训练模型。 2、生成式 AI 训练技术栈 总结来说是由于模型结构的创新尤其以 2017 年开始 Transformer 模型结构为代表另外大数据带来了海量的数据集还包括机器学习的梯度寻优算法结构共同构成了 AI 训练算法和软件上的基础。另外从 GPU 的云服务器到 GPU 的云服务集群构成了 AI 训练的硬件基础。 软件算法与硬件发展带来了当下生成式 AI 训练技术栈爆发带来了通往 AGI 的曙光。 生成式 AI 微调训练和性能分析 第二部分我将介绍目前在生成式 AI 的微调训练场景下的流程、使用场景以及基于 ECS GPU 云服务器生存式 AI 微调训练场景的性能分析。 1、生成式 AI 从开发到部署的流程 大致可以分为三部分——预训练、微调和推理如下图所示 最左侧是 Pre-Training预训练生成通用模型中间是 Fine Tuning微调生成特定领域的数据集最终在部署时进行 Inference 推理。 在 Pre-Training 阶段最重要的特点是有海量的数据集以及大的参数量因此该场景需要大规模算力进行分布式训练通常以月为单位的开发周期和生产迭代的流程。 在 Fine Tuning 阶段与 Pre-Training 略有区别该场景下需要 Special Data如垂直领域模型的客户专属的私域数据。此外根据应用场景需求有些场景可能需在要分钟级 Fine Tuning 出一个模型有些场景可以以周为单位生产模型进而把Pre-Training 模型变成 specialize 特定领域的模型如 coding、media advise、education 等垂类的模型。 在 Inference 推理阶段其特点更加明显即用于部署最关键是如何在符合特定的在线服务环境下做到时延和吞吐以达到上线需求。 生成式 AI 微调训练场景中两类常见的模型如上图所示。 第一类如妙鸭相机 APP它是基于 Diffusion 生成类模型提供针对客户定制化专属模型的一种训练方式它是快速 Fine Tuning 与高效 Inference 兼顾的一种训推一体的生成式 AI 模型。 第二类垂直领域的大模型以大语言模型为代表它根据特定场景以及对应的垂类领域的数据基于基座模型 Fine Tuning 定制化的 LLM 模型。 2、生成式 AI 微调场景的 GPU 性能分析 以上两类模型在 GPU 计算上存在瓶颈。GPU 的原理并不复杂即一堆小的 Micro 的计算单元做 ALU 计算和小块矩阵乘法。但模型或深度学习算法并不是简单地由矩阵乘组成包括 transform layer 等对应的 activation 等如何将堆叠的 layer 映射到算力资源更好地发挥出算力的 efficiency 是我们需要解决的场景。 具体到生成式AI的微调场景上图的最下方列了两张 Timeline 图左下角是以 ECS V100 16G 实例在 Stable Diffusion 微调训练场景为代表可以看到 GPU 计算逻辑时间序列有很多空白说明 GPU 的算力没有被完全发挥出来其最重要的瓶颈来自于 CPU 本身的 overhead 特别大这是 v100 场景下在 Stable Diffusion 微调遇到的瓶颈。 右下角 ECS A100 80G 实例在 Llama LLM 微调训练场景为代表最上面一层是在 GPU 上的计算执行逻辑下面是密集的 all gather 通信流又伴随着密集的 Reduce scatter 通信流它是网络 IO 成为 bound 的计算 workload。 映射到算力资源CPU overhead bound 和 Network IO bound 成为了 GPU 运算的瓶颈。 ECS GPU 实例为生成式 AI 提供算力保障 ECS GPU 云服务器通过软硬件结合的方式为生成式 AI 的微调场景提供了充沛、高性能的算力保障。 1、ECS 异构计算为生成式 AI 提供澎湃算力 下面是阿里云异构计算产品大图。底座是 ECS 的神龙计算平台之上提供了包括gn7e、gn7i 以及其他做计算加速实例的硬件资源组。在算力的基础之上提供DeepGPU Toolkits其目标在于衔接上层 AI 应用和底层硬件资源进行软结合一体化的优化提升 ECS GPU 云服务器与友商相比的差异化竞争力服务于客户以达到高性能和高性价比的 AI 训练和推理效果。 2、ECS 异构计算 DeepGPU 提升生成式 AI 效率 以下是 DeepGPU 的简图。 左侧是开发模型的训练技术栈通常开发人员只关注两部分第一是否能提供足够的算力服务可以通过开源的调度器以及开源的模型框架搭建模型算法的开发流程。DeepGPU 的工作则是在客户并不触及的部分包括驱动级、计算库和通信库整合包括 CIPU、ECS GPU 云服务器的能力提升在模型训练和推理的效果和能力。 右侧是 DeepGPU 的整体架构图其底层是依托于 GPU 的基础架构包括异构 GPU 计算实例、eRDMA/vpc 网络以及云存储在基础产品增强工具包中提供包括基于 eRDMA 训练的客户参考解决方案最终的目的是帮助客户在基于 ECS GPU 云服务器上其模型的训练推理的性能可以达到最佳。 3、阿里云 CIPU DeepGPU 提升分布式训练效率 简单介绍 DeepNCCL 如何通过阿里云特有的基础设施达到软硬结合的训练加速的效果。左侧图是 CIPU 的基础设施它提供了 eRDMA Engine可以达到大吞吐、低延时的网络通信的能力叠加 DeepNCCL 软硬结合的性能优化右图显示 allgather 的 NCCL test 性能数据右侧是原生的数据左侧是 DeepNCCL 加持的性能数据DeepNCCL 实现了比原生数据提升 50%~100% 的 primitive 的 NCCL 集合通信的算子优化能力。 应用场景案例 这部分通过几个典型的场景介绍 ECS GPU 云服务器叠加 DeepGPU 在生成式 AI 的应用场景以及对应的性能加速效果。 1、ECS A10 DeepGPU Diffusion 微调训练案例 关于 DeepGPU Diffusion 微调的训练案例的性能加速方案前面的内容中曾提及过该场景的目标即训推一体。换言之客户首次或二次进入都要快速生成模型则其训练一定要快也就是说其在模型上有一定的折中如通过 LoRA 降低总计算量其次模型中需要有专属于每个客户自己的 feature通常是在 Diffusion 中通过Dreambooth 或 controlnet 提供专属模型的优化能力。 通过算法上的加持可以形成用户专属模型另外可以保证快速。再叠加 gn7e、gn7i 提供的高弹性算力保障可以提升整个训推一体的算力需求同时 DeepGPU 软硬结合可以额外带来 15%~40% 的性能提升。类似的案例已经在客户妙鸭大规模上线通过快速地弹出大量的 A10、V100 实例以及 DeepGPU 的性能加持帮助妙鸭快速应对高峰期用户推理和训练的请求。 2、ECS A100 DeepGPU LLM 微调训练案例 另一部分在大语言模型的微调训练案例其特点是模型参数量太大在单机很难装载训练因此模型参数需要 sharding 到不同的 GPU 卡和不同的机器上做训练算法的迭代这会引入大量卡间通信且是同步通信操作因此多卡互联的能力是 LLM 在微调训练场景的瓶颈。 ECS GPU 云服务器提供包括 eRDMA 以及大带宽的算力和通信带宽保障再叠加DeepGPU 的 DeepNCCL 加持可以为大语言模型在多机多卡的微调场景带来10%~80% 的性能提升。这个案例也在许多客户场景上得到了实践。 以上就是本次分享的全部内容。
http://www.pierceye.com/news/56227/

相关文章:

  • 网络营销思想的网站改版计划wordpress 调用百度前端公众库
  • 周浦手机网站建设公司建设网站转赚钱吗
  • 网站视频大全运动服饰网站建设目的
  • 怎么做招标公司网站有哪些做任务网站
  • 广西公司做网站做外贸好还是跨境电商好
  • 湛江市seo网站设计联系方式线上购买链接
  • 算命网站开发校园网站建设成本
  • 设计网站外网常用免费ppt模板
  • 网站前后台模板家乡网站设计目的
  • 网站建设的频道是什么意思开发游戏怎么赚钱
  • 网站开发公司基础产品品牌vi
  • pc端网站互动营销是什么意思
  • 网站开发有哪些公司网站怎么做备案
  • 网店网站模板进入微信官方网站注册
  • 找人做网站流程网站开发前景好吗
  • 重庆北碚网站建设自学设计的网站
  • 用dw做的网站怎样弄上网上济宁 网站建设
  • 沧州海外网站建设株洲建设局网站
  • 温州开发网站公司家具做网站
  • 建筑施工建设网站包装设计网站有哪些
  • 网站型和商城型有什么区别wordpress编辑器段间距
  • 网站建设服务费怎么做会计分录信宜做网站
  • 江西网站设计欣赏织梦做信息类网站
  • 后台原网站被转接wordpress禁止缩略图
  • 北京 网站建设网站规划管理系统
  • 文化集团网站模板高端大气网站设计欣赏
  • 天津网站建设论坛汉源网站建设
  • 建站方法淮阴区建设局网站
  • 房山新农村建设网站江苏网站建设方案
  • 商业网站开发 流程产品开发项目管理