当前位置: 首页 > news >正文

网站制作哪家最好广州天河区酒店

网站制作哪家最好,广州天河区酒店,网站流量报告,青岛李沧建设局网站基于Kubernetes的Spark部署完全指南 【编者的话】本文是在Kubernets上搭建Spark集群的操作指南#xff0c;同时提供了Spark测试任务及相关的测试数据#xff0c;通过阅读本文#xff0c;你可以实践从制作Spark镜像、搭建Spark容器集群#xff0c;到在集群上运行测试任务的…基于Kubernetes的Spark部署完全指南 【编者的话】本文是在Kubernets上搭建Spark集群的操作指南同时提供了Spark测试任务及相关的测试数据通过阅读本文你可以实践从制作Spark镜像、搭建Spark容器集群到在集群上运行测试任务的完整流程。 Yarn曾经是Hadoop默认的资源编排管理平台。但最近情况有所变化特别是对于Hadoop中的Spark由于其与S3等其他存储平台集成得很好而与Hadoop生态中其他组件反而没有太紧密的关联因此Kubernetes正迅速替代Yarn成为基于对象存储的Spark系统的默认编排管理平台。在这篇文章中我们将深入研究如何在Kubernetes集群上构建和部署Spark容器。由于Spark的运行依赖于数据我们将配置Spark集群通过S3 API进行存储操作。 构建Spark容器 在Kubernetes上部署应用的第一步是创建容器。虽然有些项目会提供官方的容器镜像但截止到写此文时Apache Spark并没有提供官方镜像。因此我们将自己创建Spark容器让我们从Dockerfile开始。 FROM java:openjdk-8-jdkENV hadoop_ver 2.8.2 ENV spark_ver 2.4.4RUN mkdir -p /opt  \ cd /opt  \ curl http://archive.apache.org/dist/hadoop/common/hadoop-${hadoop_ver}/hadoop-${hadoop_ver}.tar.gz | \tar -zx  \ ln -s hadoop-${hadoop_ver} hadoop  \ echo Hadoop ${hadoop_ver} installed in /optRUN mkdir -p /opt  \ cd /opt  \ curl http://archive.apache.org/dist/spark/spark-${spark_ver}/spark-${spark_ver}-bin-without-hadoop.tgz | \tar -zx  \ ln -s spark-${spark_ver}-bin-without-hadoop spark  \ echo Spark ${spark_ver} installed in /optENV SPARK_HOME/opt/spark ENV PATH$PATH:$SPARK_HOME/bin ENV HADOOP_HOME/opt/hadoop ENV PATH$PATH:$HADOOP_HOME/bin ENV LD_LIBRARY_PATH$HADOOP_HOME/lib/nativeRUN curl http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar -o /opt/spark/jars/hadoop-aws-2.8.2.jar RUN curl http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar -o /opt/spark/jars/httpclient-4.5.3.jar RUN curl http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar -o /opt/spark/jars/joda-time-2.9.9.jar RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-core-1.11.712.jar RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-1.11.712.jar RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-kms-1.11.712.jar RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-s3-1.11.712.jarADD start-common.sh start-worker start-master / ADD core-site.xml /opt/spark/conf/core-site.xml ADD spark-defaults.conf /opt/spark/conf/spark-defaults.conf ENV PATH $PATH:/opt/spark/bin在这个Dockerfile中我们首先从官方地址下载Apache Spark和Hadoop然后从Maven获取关联的jar包。当所有关联的文件都已经下载并解压到一个特定的目录后我们将这些重要的配置文件添加到镜像中。 在这个过程中你可以很方便的添加自己环境特有的配置。 原本我们可以跳过以上步骤直接使用一个预先构建好的镜像但是通过解读这些步骤可以让我们的读者看到Spark容器内部的内容高级用户可以据此修改来满足他们特殊的需求。 以上示例中使用到的Dockerfile和其他关联的配置文件可以从这个GitHub仓库中获取。如果要使用这个仓库中的内容请先使用以下命令将其克隆到本地 git clone gitgithub.com:devshlabs/spark-kubernetes.git现在你可以根据需要在你的环境中进行任何更改然后构建镜像并上传到你使用的容器注册表中。在本文的示例中我使用Dockerhub作为容器注册表命令如下 cd spark-kubernetes/spark-container docker build . -t mydockerrepo/spark:2.4.4 docker push mydockerrepo/spark:2.4.4记得将其中的mydockerrepo替换为你实际的注册表名字。 在Kubernetes上部署Spark 至此Spark容器镜像已经构建好并可以拉取使用了。让我们使用此镜像来部署Spark Master和Worker。第一步是创建Spark Master。我们将使用Kubernetes ReplicationController创建Spark Master。在本文的示例中我仅用单实例创建Spark Master。而在有HA需求的生产环境中你可能需要将副本数设置为3或者以上。 kind: ReplicationController apiVersion: v1 metadata: name: spark-master-controller spec: replicas: 1 selector: component: spark-master template: metadata:labels:component: spark-master spec:hostname: spark-master-hostnamesubdomain: spark-master-headlesscontainers:- name: spark-masterimage: mydockerrepo/spark:2.4.4imagePullPolicy: Alwayscommand: [/start-master]ports:- containerPort: 7077- containerPort: 8080resources:requests:cpu: 100m为了使Spark Worker节点可以发现Spark Master节点我们还需要创建headless服务。 当你从GitHub仓库完成克隆并进入spark-kubernetes目录后就可以启动Spark Master服务了命令如下 kubectl create -f spark-master-controller.yaml kubectl create -f spark-master-service.yaml现在确保Master节点和所有的服务都正常运行然后就可以开始部署Worker节点了。Spark Worker的副本数设置为2你可以根据需要修改。Worker启动命令如下 kubectl create -f spark-worker-controller.yaml最后通过以下命令确认是否所有服务都正常运行 kubectl get all执行以上命令你应该可以看到类似下面的内容 NAME                               READY     STATUS    RESTARTS   AGE po/spark-master-controller-5rgz2   1/1       Running   0          9m po/spark-worker-controller-0pts6   1/1       Running   0          9m po/spark-worker-controller-cq6ng   1/1       Running   0          9mNAME                         DESIRED   CURRENT   READY     AGE rc/spark-master-controller   1         1         1         9m rc/spark-worker-controller   2         2         2         9mNAME               CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE svc/spark-master   10.108.94.160   none        7077/TCP,8080/TCP   9m向Spark集群提交Job 现在让我们提交一个Job看看是否执行正常。不过在此之前你需要一个有效的AWS S3账户以及存有样本数据的桶存在。我使用了Kaggle下载样本数据样本数据可以从https://www.kaggle.com/datasna ... s.csv获取获取以后需要上传到S3的桶里。假定桶名是s3-data-bucket那么样本数据文件则位于s3-data-bucket/data.csv。 数据准备好以后将其加载到一个Spark master pod中执行。以Pod名为spark-master-controller-5rgz2为例命令如下 kubectl exec -it spark-master-controller-v2hjb /bin/bash如果你登录进入了Spark系统可以运行Spark Shell export SPARK_DIST_CLASSPATH$(hadoop classpath) spark-shell Setting default log level to WARN. To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Spark context Web UI available at http://192.168.132.147:4040 Spark context available as sc (master  spark://spark-master:7077, app id  app-20170405152342-0000). Spark session available as spark. Welcome to____              __/ __/__  ___ _____/ /__ _\ \/ _ \/ _ / __/  _/ /___/ .__/\_,_/_/ /_/\_\   version 2.4.4/_/Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_221) Type in expressions to have them evaluated. Type :help for more information.scala现在让我们告诉Spark MasterS3存储的详细信息在上文所示的Scale提示符中输入以下配置 sc.hadoopConfiguration.set(fs.s3a.endpoint, https://s3.amazonaws.com) sc.hadoopConfiguration.set(fs.s3a.access.key, s3-access-key) sc.hadoopConfiguration.set(fs.s3a.secret.key, s3-secret-key)现在只需将以下内容粘贴到Scala提示符中以提交Spark Job请记得修改S3相关字段 import org.apache.spark._ import org.apache.spark.rdd.RDD import org.apache.spark.util.IntParam import org.apache.spark.sql.SQLContext import org.apache.spark.graphx._ import org.apache.spark.graphx.util.GraphGenerators import org.apache.spark.mllib.regression.LabeledPoint import org.apache.spark.mllib.linalg.Vectors import org.apache.spark.mllib.tree.DecisionTree import org.apache.spark.mllib.tree.model.DecisionTreeModel import org.apache.spark.mllib.util.MLUtilsval conf  new SparkConf().setAppName(YouTube) val sqlContext  new SQLContext(sc)import sqlContext.implicits._ import sqlContext._val youtubeDF  spark.read.format(csv).option(sep, ,).option(inferSchema, true).option(header, true).load(s3a://s3-data-bucket/data.csv)youtubeDF.registerTempTable(popular)val fltCountsql  sqlContext.sql(select s.title,s.views from popular s) fltCountsql.show()最后你可以使用kubectl patch command命令更新Spark部署。比如你可以在负载较高时添加更多工作节点然后在负载下降后删除这些工作节点。原文链接Complete guide to deploy Spark on Kubernetes翻译木木TM
http://www.pierceye.com/news/797140/

相关文章:

  • 网站菜单导航制作教程畅言 wordpress插件
  • 太原网站建设联系方式免费创建网站教程
  • 有服务器自己怎么做网站深圳财务小公司网站
  • 装修装饰网站建设东莞环保公司
  • 网站开发大公司需要资格证吗申请域名免费
  • 建设维护网站未签订合同网站上线之前做哪些工作
  • dede 网站图标网站安装php
  • 网站管理更新维护湖南网站建设策划
  • 桥头东莞网站建设网站建设的开发方式和费用
  • 无锡网站优化哪家好wordpress会员内容
  • 网站需求分析的重要手机网站建设的规划
  • 国内大一html网站简单设计用那种语言做网站比较好
  • 网站的flash陕西煤化建设集团铜川分公司网站
  • 网站还能赚钱吗logo公司商标设计
  • 数字校园建设专题网站wordpress游览器标签页
  • 企业网站分析报告途牛网站大数据建设
  • 免费创建论坛网站wordpress sql插件
  • 有移动端网站 怎么做app做网站的困难
  • 金种子酒业网站建设苏州专业的网站建设公司
  • 住房与住房建设部网站首页给网站做收录较好的软件
  • 课程网站的设计网站开发遇到的难题
  • 学网站建设要什么iis 二级网站 发布
  • 怎么仿做网站wordpress文章进不去
  • 网站建设费算办公费吗html5商城网站模板
  • 188旅游网站源码下载做个爬架网站如何做
  • 中国做的比较好的网站设计公司有哪些可以做翻译兼职的网站吗
  • 深圳做网站建设公司dw学生个人网页制作视频
  • html网页设计代码作业网站衡水武邑县建设局网站
  • 网站后台登陆验证码wordpress 前台加载慢
  • 网站推广去哪家比较好专门做网站的公司叫什么