重庆建站程序,vs做的网站源代码,软件项目管理大作业,怎么弄网站美国西部时间 5 月 2 日下午 7 点#xff0c;Twitter 公司在旧金山总部举行了一次技术发布会兼 Meetup。会上#xff0c;Twitter 计算平台#xff08;Twitter Computing Platform#xff09;产品与技术负责人 David McLaughlin 正式宣布#xff0c;Twitter 的基础而设施将…美国西部时间 5 月 2 日下午 7 点Twitter 公司在旧金山总部举行了一次技术发布会兼 Meetup。会上Twitter 计算平台Twitter Computing Platform产品与技术负责人 David McLaughlin 正式宣布Twitter 的基础而设施将从 Mesos 全面转向 Kubernetes。
Mesos项目发布于是2009年而Twitter公司则是 Mesos 项目的早期支持者和使用者之一。作为世界上最成功的社交媒体巨头之一Twitter 公司以其庞大的生产集群规模万级别节点而备受关注。在 2011 年Twitter 公司开始在Mesos 项目的基础上开发了 Aurora 项 以便同时管理其内部的在线和离线业务逐步成为 Mesos 社区的代言人。
可是在持续投入 Mesos 项目近 10 年之后为什么现在的 Twitter 公司又会突然宣布全面转向 Kubernetes 体系呢在这个令人瞩目的决定背后 又是什么样的架构和设计能够支撑 Twitter 的基础设施来一次 360 度的“华丽转身”呢
云时代Twitter基础设施面临的新挑战
Twitter 公司创始于 2006 年。时至今日全世界每天都有至少 5 亿条推文产生。在过去十余年飞速成长和海量数据的挑战下Twitter 的基础设施架构的演进过程一直以来都是全世界技术公司眼中标杆案例。这其中像 Mesos 这样优秀的老牌调度框架、 以及像 Aurora 这样启发自 Google Borg 配置管理的编排引擎可谓功不可没。
事实上在互联网级别的技术场景下依托顶级工程师和成熟技术自建基础设施一直以来都是一线非云互联网厂商的架构首选。也正是在这个过程中相对成熟并且工作层次较低的 Mesos 项目收获到了大量的规模级生产环境部署案例。
不过随着云计算的普及和 Kubernetes 这样以“云”为核心的容器化基础设施项目的迅速崛起这种传统的互联网基础技术架构选型方法正在逐步暴露出很多前所未有的问题。在本次发布会上 David 就以 Twitter 公司当前面临的挑战为例对这些问题作出了简明扼要的总结
存储系统的多样化与专业化使传统基础设施复杂度急剧上升。相比于传统技术架构对存储系统的单一假设比如一套 Ceph 打天下云时代的软件架构为用户的存储选择带来了爆发性的增长。仅以阿里云为例它在公有云上能够为用户提供的各种类型的存储服务就多达 10 余中而其中的细分方案更是数不胜数。而随着互联网公司的基础架构和软件规模的不断扩张和发展互联网软件本身对存储的需求也更加细化和专业。比如在 Twitter这其中Local Persistent Volume 这种“非典型”的存储诉求就逐渐在平衡性能与成本的过程中成为了一种主流方案。而作为 CSIContainer Storage Inerface的提出者Kubernetes 社区不仅拥有着最完善里的 Local PV 机制还能够凭借标准接口和 PV、PVC 体系完全为用户抹平其它数十种不同存储服务的对接问题。这在互联网软件架构日趋复杂和面向多云的发展趋势中无疑是至关重要的。Mesos 和 Aurora 体系与“云原生”始终渐行渐远。 云时代一个重要的技术发展趋势就是软件的生命周期会逐步向“生在云上、长在云上”的形态靠拢。这也就意味着作为支撑着软件的核心基础设施项目也必然要向“发挥云的最大价值”的方向不断演进。遗憾的是Mesos 以及 Aurora 项目或许是由于发布较早始终没能够将“云”变成整个基础设施体系中的“一等公民”。而相比之下Kubernetes 体系从发布伊始就不断倡导的“声明式 API”、“容器设计模式”、“控制器模型”等各项理念其实都是为了帮助用户能够在云上以“可扩展、可复制、高度自动化”方式开发、交付和运维软件所作出的重要努力。在今天这些顶层架构设计与各种最佳实践就被广大开发者们冠名为“云原生”。这也成为了 Kubernetes 项目与其它竞争对手相比最大的不同。传统的多云、多集群管理成本居高不下并在可预见的未来内迅速攀升。在传统的互联网架构当中自建数据中心和基础设施体系是整个软件系统的第一假设。而“云”所扮演的角色更像是在流量突发时应付峰值的资源“备胎”。在这种以“云”为辅助角色的指导思想下多云和多集群很难成为整个架构的重中之重。这就使得多云和多集群的能力成为了底层资源对接层的职责而与更重要的应用开发、交付和运维体系失去了直接关联。这种方案短期内固然可以奏效但长期的维护和迭代的成本却很容易因为上层应用本身的千变万化的形态与高速迭代而超出把控。此外这种设计的另一个极端就是让整体基础设施走向“多活”的技术深渊这实际上已经远远超出了 90% 以上的互联网公司的技术能力。在云原生体系开始普及之后“每朵云上都有无数个 Kubernetes 集群”逐渐成为了应用基础设施能够依赖的新常态。这就为多云和多集群的管理提供了一种全新的、突破性的思路只要我的软件选择面向 Kubernetes 来进行架构、设计和实现那么“多云、多集群”就自然而然的成为了我的应用基础设施的默认能力。在 Twitter 的业务越来越多的需要多云、多集群环境中交付的趋势下 Kubernetes 这种从根本上帮助应用迅速向多云交付的“捷径”成为了 Twitter 选择变更自身技术体系另一个重要原因。 作为不断在快速发展和迭代的互联网公司高压力和快节奏背景下的企业往往无暇顾及基础设施架构的标准化与兼容性问题。这同样也是 Twitter 公司面临的主要问题之一。所以在这次转型过程当中“Kubernetes Native”则成为了一个被反复强调的关键词。
大规模生产环境的 Kubernetes Native 技术路径
作为不断在快速发展和迭代的互联网公司高压力和快节奏背景下的企业往往无暇顾及基础设施架构的标准化与兼容性问题。这同样也是 Twitter 公司面临的主要问题之一。所以在这次转型过程当中“Kubernetes Native”则成为了一个被反复强调的关键词。在发布会上Twitter 公司公布了选择 Kubernetes Native 方向的诸多评估依据。
良好的开源技术与开源生态全世界所有的公有云都提供 Kubernetes 服务不必担心厂商锁定原生具备有状态业务Stateful Application的管理语义项目本身快速迭代具有很强创新能力和先进性具备标准的存储对接接口帮助 Twitter 无缝迁移各种现有存储服务
最终Twitter 公司用一句话总结了这次评估的结果 “我们认为使用 Kubernetes 项目作为 Twitter 公司基础设施向前演进的核心依赖将会是一个正确的选择”。 而在这条演进路径上Twitter 也公布了多项具体的技术举措比如
开发 Twitter 专属的有状态应用管理控制器TwitterSet开发满足 Twitter 场景的节点控制器NodeController自定义 Service Discovery 组件以便同 Twitter 自己的流量管理服务对接编写兼容 Aurora 语义的作业管理控制器以便将现有的 Aurora 上的业务进行迁移开发更丰富的应用发布策略和实例稳定性支持改造 Aurora 的 DSL 以对接 Kubernetes集成现有的 CI/CD 系统。
David 表示“Twitter 公司基础设施的巨大规模一直不是一个秘密但至少在今天规模不再是我们的首要担心我们能看到像阿里巴巴这样的社区领导者正在将更大规模的 K8s 集群推向了生产环境”。 David McLaughlin 宣布整个迁移计划将从现在开始一直持续到 2020 年。届时整个 Twitter 的技术栈都会运行在以 Kubernetes 为基础的容器化基础设施之上并且呈现“内部 K8s 集群 公有云 K8s 服务”的多集群组合形态。
David 最后再对 Twitter 的未来进行总结时强调在 2020 年Twitter 自己的软件栈会以“一部分运行在自有 K8s 集群另一部分运行在 公共云上”的多集群形态进行开发和交付。显然在思考“如何通过云来让自身的基础设施能力价值最大化然后让公司专注于更具价值的核心业务”这件事情上Twitter 已经得到了一个相对清晰而富有远见的答案。更重要的是这个选择很可能会使公司与于得以拥抱 Kubernetes 的 Twitter 工程师们实现真正意义上的共赢。
世界级互联网公司加持的规模化云原生技术
不难看到Twitter 公司这次走向 Kubernetes Native背后的技术本质其实是在最大程度的利用 Kubernetes 项目本身的核心概念与可扩展能力取得规模化定制性需求与社区标准之间的平衡。
这同样也是阿里巴巴正在社区倡导的一条关键途径。从 2018 年开始阿里巴巴联合了 Google FacebookTwitterLinkedInUberNetflixPinterest 等一大批顶级互联网公司在美国硅谷开展起了月度 Web-Scale Meetup以分享自身实际落地实践的方式为更多互联网场景中的社区“观望者”树立信心。本次发布会上Twitter 公司也邀请了来自阿里云容器平台团队的工程师李响、张磊、何剑等作为专题演讲嘉宾。同时应邀出席发布会的嘉宾还有 Google 公司 Kubernetes 团队工程技术经理 Jago Macleod 。
发布会上阿里云容器平台团队也透露了下个月即将开源的、其内部锤炼已久的Kubernetes 高级作业管理集合Kubernetes Workloads AdvancedKruise 项目。Kruise 会充分利用 Kubernetes 的“声明式 API” 和“控制器模型”为用户提供互联网场景下“赖以生存”的容器化应用“原地升级”能力以及更加精细化的业务发布策略。Twitter、Pinterest 以及 Netflix 等世界级团队都会加入到这个创新性的“云原生作业管理”项目的合作当中。 除此之外Kubernetes 本身在规模化与性能提升上的不断演进也是能够让 Twitter 公司最终从“观望者”变成“实践者”的另一个技术因素。对此Google Kubernetes 项目工程技术经理 Jago Macleod 在演讲中专门介绍了 Google 公司与阿里巴巴在这个领域上正在进行的攻关与合作。在最近的一次尝试中双方的工程师正在一起为 K8s 里海量的 WATCH 操作添加“书签Bookmark”这将使得这些 WATCH 操作的建立者在重启之后只需要对“书签”之外的少数历史变化进行追溯。在特定情况下K8s APIServer 的性能会被提高 40 倍以上。
Kubernetes以应用为中心的“高速公路”
除了技术和架构演进上的考量之外这次Twitter 公司向 Kubernetes 的“华丽转身”还有一个至关重要的非技术因素。
Twitter 公司的快速成长催生出了其标杆式的基础软件团队但也反映出了一个不得不引起重视的问题随着互联网业务的快速发展公司的基础软件团队很快就开始超过它应有的规模边界而相应的投入产出比却停滞不前。
所以正如 David 在一开始提到的那样过去互联网企业中“自研In-house”为主的基础软件开发和架构思路正在伴随着云计算和云原生理念的普及发生微妙的变化。凭借像 Kubernetes 这样的平台级项目标准互联网公司已经能够以较小的代价将自身的基础设施向云迁移。更重要的是由于 Kubernetes 这个标准层的存在这种“迁移”本身并不会像 Netflix 与 AWS 那样形成根深蒂固的厂商锁定关系反而会在保留大部分“自研”好处的同时彻底发挥出“云”本身的价值和多集群管理的能力。这种变革带来的优势会在一个互联网公司里的 “AWS 工程师”都变成“K8s 工程师”之后变得尤为凸显。
不难看到Kubernetes 项目正在以应用为中心连通“云”、“应用开发者”与“基础软件团队”。这种“高速公路”般的沟通、连接与交付能力也正是像 Twitter 这样快速迭代的互联网公司思考自己基础设施架构未来演进方向的重要参考。而这种转变也使得 Twitter 这样一个业务迅速增长的商业组织始终维持一个数十人的基础软件团队成为了现实。
写在最后
从最早Mesos“代言人”到如今的全面转向“Kubernetes Native”Twitter的举动再一次佐证了‘Kuberentes已经成为容器编排事实标准’这一断言。更为重要的是Twitter这次全面拥抱云原生也有望能够为业界大规模生产级云原生技术落地的提供一个经典学习范本。
阿里巴巴从去年开始在云原生生态中投入了大量技术力量正在逐步成为FacebookTwitterLinkedInUberNetflixPinterest等众多世界级互联网公司眼中规模化云原生技术落地的一位重要引领者。而伴随着云计算的进一步普及传统的互联网基础技术架构暴露出很多前所未有的问题以及像Kubernetes这样以“云”为核心的容器化基础设施项目的迅速崛起都在促使越来越多的世界级企业开始思考如何借助“云”以及云原生技术来拥抱开源生态和开放的技术标准准备迎接一个具备强劲的迭代能力的、面向“云”的数字未来。
原文链接 本文为云栖社区原创内容未经允许不得转载。