当前位置: 首页 > news >正文

上海地区网站建设河南郑州

上海地区网站建设,河南郑州,怎样做个人网站,广告推广的软件Spark- Linux下安装Spark 前期部署 1.JDK安装#xff0c;配置PATH 可以参考之前配置hadoop等配置 2.下载spark-1.6.1-bin-hadoop2.6.tgz,并上传到服务器解压 [rootsrv01 ~]# tar -xvzf spark-1.6.1-hadoop2.6.tgz /usr/spark-1.6.1-hadoop2.6 3.在 /usr 下创建软链接到目标文… Spark- Linux下安装Spark 前期部署 1.JDK安装配置PATH 可以参考之前配置hadoop等配置 2.下载spark-1.6.1-bin-hadoop2.6.tgz,并上传到服务器解压 [rootsrv01 ~]# tar -xvzf spark-1.6.1-hadoop2.6.tgz /usr/spark-1.6.1-hadoop2.6 3.在 /usr 下创建软链接到目标文件夹 [rootsrv01 usr]# ln -s spark-1.6.1-bin-hadoop2.6 spark 4.修改配置文件,目标目录 /usr/spark/conf/  [rootsrv01 conf]# ls docker.properties.template log4j.properties.template slaves.template spark-env.sh.template fairscheduler.xml.template metrics.properties.template spark-defaults.conf.template 这里需要把spark-env.sh.template改名为spark-env.sh export JAVA_HOME/usr/jdk #这个是单机版的配置不能实现高可用 export SPARK_MASTER_IPsrv01 export SPARK_MASTER_PORT7077 再配置slaves ,都是我的集群的机器的hostname srv01 srv02 srv03 5.分发到集群各个机器上,再软链接一下,保持集群一致性,参考step-3 [rootsrv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv02:/usr [rootsrv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv03:/usr 6.Spark-sell 配置好,启动spark-shell,注意记得先关闭防火墙(也可以将spark写进PATH中) 输入 sc ,如果显示下面的,表示安装正常 scala sc res0: org.apache.spark.SparkContext org.apache.spark.SparkContext18811c42 7.测试单词计算案例 scala sc.textFile(/root/file.log).flatMap(_.split( )).map((_,1)).reduceByKey(__).collect.toBuffer res7: scala.collection.mutable.Buffer[(String, Int)] ArrayBuffer((scala,2), (spark,2), (hive,1), (hadoop,2), (mapreduce,1), (zookeeper,1), (hello,1), (redis,1), (world,1))  8.启动Spark集群模式(前提是3台机器的spark配置一样,配置文件spark-env.sh和slaves文件保持一致) 进入Spark的sbin目录下启动 ./start-all.sh 这个脚本文件在sbin目录 通过Jps查看角色 [rootsrv01 conf]# jps 13079 Master 13148 Worker  //这个worker的启动通过配置文件slaves 13234 Jps 下面是我的slaves的配置文件 srv01 srv02 srv03 slaves配置的决定了在哪几台机器上启动worker 下面的配置文件决定了在哪台机器上启动Master 启动Spark集群如果有使用hdfs的场景需要把hadoop的conf目录下的core-site.xml和dhfs-site.xml拷贝到spark的conf目录下才能使用高可用的hdfs url     然后在通过网页查看spark的相关信息 http://192.168.1.88:8080/ 执行第一个Spark程序 指定运行程序的主机名(Master)   ./spark-submit --class org.apache.spark.examples.SparkPi --master spark://srv01:7077 --executor-memory 1G --total-executor-cores 2 /usr/spark-1.6.1-bin-hadoop2.6/lib/spark-examples-1.6.1-hadoop2.6.0.jar 500         IDEA上面编码使用集群上的spark运行程序 package com.rz.spark.baseimport org.apache.log4j.{Level, Logger} import org.apache.spark.{SparkConf, SparkContext}object transactionApp {def main(args: Array[String]): Unit {Logger.getLogger(org.apache.spark).setLevel(Level.OFF)val conf new SparkConf().setAppName(this.getClass.getSimpleName).setMaster(spark://hdp:7077)val sc new SparkContext(conf)val rdd1 sc.parallelize(Array(1,2,3,4,5,6,7,8,9))println(rdd1.partitions.length)sc.stop()} }转载于:https://www.cnblogs.com/RzCong/p/7447638.html
http://www.pierceye.com/news/349792/

相关文章:

  • 网站可以换域名吗北京建站公司兴田德润很好
  • 烟台做网站建设大宗商品交易平台是什么
  • 网站安全建设目标昆明网站制作企业
  • 个人网站更换域名企业网站建设套餐价格
  • 什么网站做海宁的房产好自己做软件 做网站需要学会哪些
  • 品牌网站建设浩森宇特软件工程师年薪多少
  • 做网站没有数据库ppt模板制作免费
  • 网站建设代码合同重庆住房和城乡建设部网站的打印准考证
  • 天气网站建设wordpress yasaer
  • 无忧网络网站建设响应式网页设计技术有哪些
  • 非常好的网站建设公司上海如何批量建站
  • 珠海市官网网站建设品牌深圳创业补贴去哪里申请
  • 建立传媒公司网站wordpress 农场主题
  • 如何用ps做网站导航条劳保用品 技术支持 东莞网站建设
  • 网站数据库迁移背景图网站
  • 1 网站建设的目标是什么密码管理系统admin
  • 深圳专业企业网站制作哪家好wordpress ality
  • 网站开发毕业设计摘要范文国际空间站
  • 网站做区块链然后往里面投钱ecms dedecms phpcms wordpress
  • 网站设计原型图wap712c
  • 敦煌手机网站设计wordpress搭建像册
  • 电子商务网站建设实践课题背景企业网站管理系统设计报告
  • 有做数学题的网站吗建筑必看六个网站
  • 沧州网站建设建站系统企业网站建设选题背景
  • 大学网站设计推广 高端网站建设
  • 个人网站赚钱网站认证收费
  • 成都免费招聘网站建设网站和推广
  • 曲靖企业网站html5 app开发工具
  • 邵东建设公司网站哪家好怎样做公司自己的官方网站
  • 建设网站有哪些内容wordpress发布心情