陕西城乡建设部网站首页,网络营销优缺点,服务器怎么发布网站,具有价值的建网站简介#xff1a;目前#xff0c;作业帮已经和阿里云有一个关于 AEP 的 tair 方案的结合#xff0c;在新的一年希望我们有更大规模的落地。文章里讲得比较多的是关于降本做的一些技术改进#xff0c;其实在降本增效这里面还有很大一块工作量是运营#xff0c;成本运营我们也…简介目前作业帮已经和阿里云有一个关于 AEP 的 tair 方案的结合在新的一年希望我们有更大规模的落地。文章里讲得比较多的是关于降本做的一些技术改进其实在降本增效这里面还有很大一块工作量是运营成本运营我们也通过自动化实现了平台化未来我们将会进一步向 BI 化、AI 化去演进。
本文整理自作业帮基础架构负责人董晓聪在云原生实战峰会上的分享讲解作业帮降本增效实践的道路上遇到的问题及经验主要分为三个方面。一是作业帮的业务和现状以及为什么要做降本增效。第二如何和阿里云一起解决在降本过程中遇到的一系列挑战最后是对未来技术趋势的展望。
背景
作者 | 董晓聪
作业帮成立于 2015 年是一家以科技手段助力普惠教育的公司公司主要的业务分为两大板块。第一作业帮 APP 是一款典型的流量互联网产品二是作业帮直播课是一款典型的产业互联网产品涵盖教育主播链条如教研、教学、教务、辅导等。 我是 2019 年十月份加入作业帮的当时我看到作业帮的技术现状归纳为两点。一是规模化另外是复杂化。 规模化作业帮线上有数千个应用服务这么多应用服务对应数万个服务实例这么多的服务实例跑在数十万的计算核心之上复杂化作业帮整体的技术栈是比较多元的。
其中占比最高的技术栈是 Golang 和 PHP还有大量模块是 C、Python、Java 等进行编写的作业帮创业之初就在云上充分享受了云计算的红利后来由于一系列原因创建了多元的架构性能快速迭代也是我们一贯的追求。那为什么要进行降本增效呢这个事之前也一直在做只不过今天需要做得更好其中有几点原因
第一点随着互联网红利的消退企业希望每一分钱得到最大的收益实现成本效益最大化。第二点虽然我们一直在强调降本增效但肯定还是有不必要的支出存在这些浪费是应该被节省的。第三点作为技术人员的梦想还是想写出更优质、更高性能的代码。 在降本增效的过程当中要注意一点降本不能降质降低成本时稳定性、效率、安全不能打折扣。我们看一下成本模型。 各种各样的特性和功能应用在计算机上其实是一个一个的代码模块这些代码其实还是需要各种各样的资源来运作有计算、存储、网络等等那么我们看一下这个模型里降本增效怎么来做。
首先公司肯定希望自己的用户越来越多使用越来越活跃。其次在应用侧降本增效做的事情就是要提升单位算力承载量通俗来讲就是 QPS。但我们面临的一个挑战就是作业帮技术栈太多元了我们如何整体提升再看资源侧存储、网络这些资源要么是刚需要么就是很难控制成本。资源侧降本的重点还是计算资源而对于计算资源我们需要提升单位成本的算力。
我们面临的挑战是什么呢就是如何选择更优的机型以及在选择完机型之后如何让业务更加快速、无感、平滑的过渡过来。在应用和计算资源的中间还有一块巨大的提升空间就是两者之间的匹配和部署的问题。在部署侧我们也面临一些困难和挑战。 第一我们在线业务集群的负载并不高。对于高吞吐的业务一般作为核心业务这些业务要留一定的空闲。对于低负载的业务要有碎片化和长尾化把线上负载率拉低了。一方面是在线业务负载并不高另外一方面是大数据离线计算要贴地进行形成空间不均还有时间上的不均互联网业务有明显的波峰波谷。在线教育更加明显波峰波谷会差两个数量级我们一直在为波峰进行买单。
如何做到降本增效
上面列举了相关的问题和挑战作业帮是如何来做的呢我们选择和阿里云一起选择开源的力量再结合一定的自研进行相关问题的解决。在应用层面我们提升了主流技术栈的运行性能对于使用最多的检索服务进行架构的重构以此来提升性能和运维效率。 在部署侧通过 GPU 调度、ECS在离线混部解决空间和时间的不均。在资源 K8s 技术实现应用透明无感这样替换机型变得更加快捷。
下面基于应用、部署简单来聊。 应用这一层对主流技术栈进行优化。第一我们是重新编译我们以 FastCGI 运行对非线程安全进行编译还有服务注册发现摒弃之前传统基于名字服务为了进一步提升性能和成功率我们还做了 LocalDNS使用更新的内核 4.10和阿里云内核团队进行相应的调优、优化解决一系列问题解决 IPVS 过多的性能和稳定性问题。
最后得益于 Terway 网络以及网络做的持久化可以对性能有更明显的提升。完成之后裸框架可以有几倍的提升可以带来 43% 左右的收益。检索服务作为底层服务对其性能要求比较高传统架构一般是计算存储耦合在一起的随着底下文件数量越来越多单机无法容纳要进行切片。每个切片要高可靠、高性能由此形成二维矩阵这种情况下存在诸多的问题比如说像数据更新周期长、整体运维效率并不高还有系统的瓶颈迟迟得不到解决。 要解决上述问题要做计算和存储的分离我们引入 Fluid 做一个关键的纽带。Fluid 是一款基于 K8s 的数据编排系统用于解决云原生过程中遇到的访问数据过程复杂、访问数据慢等一系列问题JindoRuntime 用于实现缓存的加速当我们使用 Fliud 和 JindoRuntime 完成整个检索系统的重构之后获得的收益也比较明显。
首先作业帮的数据更新周期从之前小时级别缩短到三分钟以内运维整个机器交付从之前天级别缩短到了小时级别程序性能也得到大幅度提升提升比例有 30%带来了万核级别资源的缩减。
我们再聊一下部署侧作业帮线上有大量 AI 推理类业务不光是图像识别 OCR、语音识别、合成这一块。这些业务计算 GPU 长时间脱离整个运维体系我们希望通过容器化改造将其纳管到统一运维体系里来。我们调研业界主流的技术方案它们或多或少都会对 GPU 性能造成一定损耗最后我们选择了阿里云开源方案实现了 GPU Share 的调度方案。 作业帮 GPU 服务所使用的算力和显存相对比较固定我们就实现了一套匹配机制。类似经典的背包问题。当完成整体一套之后线上 GPU 资源的使用率得到了大幅度的提升。在离线混部是工程领域比较经典的问题一方面是在线集群在波谷时有大量的空闲资源另一方面大数据离线计算需要海量的计算资源同时离线计算对时级要求并不高所以两者结合会有双赢的结果。 但之前很大的技术瓶颈在于如果混部在一起离线计算大量消费 CPU 和网络资源会使得混部的在线资源服务成功率以及时延有大幅度的下降使用阿里云 CFS 实现 CPU 的避让实现空白避让以及混部。截止到目前有万核级别的计算跑在在线集群上为了进一步保证线上稳定我们在晚高峰也做实时的调度将离线计算份额进行缩减完成这一套之后得到了兼顾稳定性和成本的方案。
作业帮整体 CPU 资源有三个池子一个是 online CPU 机器一个是 GPU 的 CPU 机器部分应用起来第三部分是 ECI 通过 Pod 数目加减实现策略包括定时 HP 策略像一些 AI 模块只有在固定课程才会应用到我们提前将课表导入在上课之前把相关服务提起即可我们也给线上服务增加一定 AutoHP 的策略。
未来展望
未来作业帮会将定时业务、AI 计算迁到 ECI 之上来实现真正在线业务的削峰并且我们将持续探索更具性价比的 IaaS 资源这也是我们一直尝试和探索的方向。目前作业帮已经和阿里云有一个关于 AEP 的 tair 方案的结合在新的一年希望我们有更大规模的落地。文章里讲得比较多的是关于降本做的一些技术改进其实在降本增效这里面还有很大一块工作量是运营成本运营我们也通过自动化实现了平台化未来我们将会进一步向 BI 化、AI 化去演进。
原文链接
本文为阿里云原创内容未经允许不得转载。