当前位置: 首页 > news >正文

制作网站的模板下载软件网络租车系统设计报告

制作网站的模板下载软件,网络租车系统设计报告,网站 创意 方案,我的世界怎么自己做皮肤并上传网站文章目录 一、简介二、安装1、简介2、本地部署(Local模式)2.1 安装2.2 官方WordCount实例 3、Standlong模式3.1 简介2.2 安装集群2.3 官方测试案例 4、Yarn模式3.1 安装3.2 配置历史服务器3.3 配置查看历史日志 5、Mesos模式6、几种模式对比7、常用端口 三、Yarn模式详解1、简介… 文章目录 一、简介二、安装1、简介2、本地部署(Local模式)2.1 安装2.2 官方WordCount实例 3、Standlong模式3.1 简介2.2 安装集群2.3 官方测试案例 4、Yarn模式3.1 安装3.2 配置历史服务器3.3 配置查看历史日志 5、Mesos模式6、几种模式对比7、常用端口 三、Yarn模式详解1、简介2、Client模式3、Cluster模式 一、简介 1官网地址http://spark.apache.org/ 2文档查看地址https://spark.apache.org/docs/3.1.3/ 3下载地址https://spark.apache.org/downloads.html https://archive.apache.org/dist/spark/ 二、安装 1、简介 部署Spark集群大体上分为两种模式单机模式与集群模式 大多数分布式框架都支持单机模式方便开发者调试框架的运行环境。但是在生产环境中并不会使用单机模式。因此后续直接按照集群模式部署Spark集群。 下面详细列举了Spark目前支持的部署模式。 Local模式在本地部署单个Spark服务Standalone模式Spark自带的任务调度模式。国内常用YARN模式Spark使用Hadoop的YARN组件进行资源与任务调度。国内最常用Mesos模式Spark使用Mesos平台进行资源与任务的调度。国内很少用 2、本地部署(Local模式) 2.1 安装 Local模式就是运行在一台计算机上的模式通常就是用于在本机上练手和测试。 wget https://gitcode.net/weixin_44624117/software/-/raw/master/software/Linux/Spark/spark-3.4.1-bin-hadoop3.tgz创建文件夹 mkdir /opt/module解压文件 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/更改文件名 mv /opt/module/spark-3.4.1-bin-hadoop3/ /opt/module/spark-local官方求PI案例 cd /opt/module/spark-localbin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master local[2] \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10参数解析 --class表示要执行程序的主类--master local[2] ​ 1local: 没有指定线程数则所有计算都运行在一个线程当中没有任何并行计算 ​ 2local[K]:指定使用K个Core来运行计算比如local[2]就是运行2个Core来执行。 ​ 3local[*]默认模式。自动帮你按照CPU最多核来设置线程数。比如CPU有8核Spark帮你自动设置8个线程计算。 spark-examples_2.12-3.1.3.jar要运行的程序10要运行程序的输入参数计算圆周率π的次数计算次数越多准确率越高 该算法是利用蒙特·卡罗算法求PI 2.2 官方WordCount实例 准备数据 mkdir input输入以下内容 hello atguigu hello spark启动Spark-shell bin/spark-shell执行任务 scala sc.textFile(/opt/module/spark-local/input).flatMap(_.split( )).map((_,1)).reduceByKey(__).collect res6: Array[(String, Int)] Array((hello,2), (atguigu,1), (spark,1))查看执行结果 连接窗口发现了一个SparkSubmit进程 spark-shell窗口关闭掉则hadoop102:4040页面关闭。 3、Standlong模式 3.1 简介 Standalone模式是Spark自带的资源调度引擎构建一个由Master Worker构成的Spark集群Spark运行在集群中。 这个要和Hadoop中的Standalone区别开来。这里的Standalone是指只用Spark来搭建一个集群不需要借助Hadoop的Yarn和Mesos等其他框架。 Master和Worker是Spark的守护进程、集群资源管理者即Spark在特定模式(Standalone)下正常运行必须要有的后台常驻进程。 Driver和Executor是临时程序当有具体任务提交到Spark集群才会开启的程序。Standalone模式是Spark自带的资源调度引擎构建一个由Master Worker构成的Spark集群Spark运行在集群中。这个要和Hadoop中的Standalone区别开来。这里的Standalone是指只用Spark来搭建一个集群不需要借助Hadoop的Yarn和Mesos等其他框架。 2.2 安装集群 Hadoop101Hadoop102Hadoop103SparkMasterWorkerWorkerWorker 解压文件 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/重命名文件夹 mv /opt/module/spark-3.4.1-bin-hadoop3 /opt/module/spark-standalone添加Worker节点 cd /opt/module/spark-standalone/conf/ vim slaveshadoop101 hadoop102 hadoop103添加Master节点 mv spark-env.sh.template spark-env.sh vim spark-env.shSPARK_MASTER_HOSThadoop101 SPARK_MASTER_PORT7077cd /opt/module/spark-standalone sbin/start-all.sh查看页面http://hadoop101:8080 8080master的webUI 4040application的webUI的端口号 2.3 官方测试案例 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop101:7077 \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10执行结果 8080master的webUI 4040application的webUI的端口号 执行参数 ./bin/spark-submit \--class org.apache.spark.examples.SparkPi \--master spark://hadoop102:7077 \--executor-memory 2G \--total-executor-cores 2 \./examples/jars/spark-examples_2.12-3.4.1.jar \ 10参数解析 --executor-memory可用内存为2G。--total-executor-cores使用CPU核数为2个。 参数解释可选值举例–classSpark程序中包含主函数的类–masterSpark程序运行的模式本地模式local[*]、spark://hadoop102:7077、Yarn–executor-memory 1G指定每个executor可用内存为1G符合集群内存配置即可具体情况具体分析。–total-executor-cores 2指定所有executor使用的cpu核数为2个application-jar打包好的应用jar包含依赖。这个URL在集群中全局可见。 比如hdfs:// 共享存储系统如果是file:// path那么所有的节点的path都包含同样的jarapplication-arguments传给main()方法的参数 4、Yarn模式 Spark客户端直接连接Yarn不需要额外构建Spark集群。一台能提交Yarn的服务器即可 3.1 安装 获取文件 wget https://gitcode.net/weixin_44624117/software/-/raw/master/software/Linux/Spark/spark-3.4.1-bin-hadoop3.tgz加压安装包 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/修改目录名称 mv /opt/module/spark-3.4.1-bin-hadoop3 /opt/module/spark-yarn修改启动文件 mv /opt/module/spark-yarn/conf/spark-env.sh.template /opt/module/spark-yarn/conf/spark-env.sh添加配置文件 vim /opt/module/spark-yarn/conf/spark-env.sh # 增加配置内容(Yarn配置文件地址) YARN_CONF_DIR/opt/module/hadoop-3.1.3/etc/hadoop提交任务 参数--master yarn表示Yarn方式运行–deploy-mode表示客户端方式运行程序 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 103.2 配置历史服务器 移动配置文件 mv /opt/module/spark-yarn/conf/spark-defaults.conf.template /opt/module/spark-yarn/conf/spark-defaults.conf修改配置文件 cd /opt/module/spark-yarn/conf vim spark-defaults.confspark.eventLog.enabled true spark.eventLog.dir hdfs://hadoop101:8020/directory修改配置文件spark-env.sh vim spark-env.shexport SPARK_HISTORY_OPTS -Dspark.history.ui.port18080 -Dspark.history.fs.logDirectoryhdfs://hadoop101:8020/directory -Dspark.history.retainedApplications30配置文件解析 Dspark.history.ui.port18080 WEBUI访问的端口号为18080-Dspark.history.fs.logDirectory指定历史服务器日志存储路径读-Dspark.history.retainedApplications指定保存Application历史记录的个数如果超过这个值旧的应用程序信息将被删除这个是内存中的应用数而不是页面上显示的应用数。 3.3 配置查看历史日志 为了能从Yarn上关联到Spark历史服务器需要配置spark历史服务器关联路径。 目的点击yarn8088上spark任务的history按钮进入的是spark历史服务器18080而不再是yarn历史服务器19888。 修改配置文件/opt/module/spark-yarn/conf/spark-defaults.conf vim /opt/module/spark-yarn/conf/spark-defaults.confspark.yarn.historyServer.addresshadoop101:18080 spark.history.ui.port18080启动历史服务器 cd /opt/module/spark-yarn sbin/start-history-server.sh 再次提交任务 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10页面查看历史任务http://hadoop102:8088/cluster 5、Mesos模式 Spark客户端直接连接Mesos不需要额外构建Spark集群。国内应用比较少更多的是运用Yarn调度。 6、几种模式对比 模式Spark安装机器数需启动的进程所属者Local1无SparkStandalone3Master及WorkerSparkYarn1Yarn及HDFSHadoop 7、常用端口 4040Spark查看当前Spark-shell运行任务情况端口号40407077Spark Master内部通信服务端口号7077 类比于yarn的8032(RM和NM的内部通信)端口8080Spark Standalone模式Master Web端口号8080类比于Hadoop YARN任务运行情况查看端口号8088 (yarn模式) 898918080Spark历史服务器端口号18080 类比于Hadoop历史服务器端口号19888 三、Yarn模式详解 1、简介 Spark有yarn-client和yarn-cluster两种模式主要区别在于Driver程序的运行节点。 yarn-clientDriver程序运行在客户端适用于交互、调试希望立即看到app的输出。 yarn-clusterDriver程序运行在由ResourceManager启动的APPMaster适用于生产环境。 2、Client模式 client模式启动 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode client \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 103、Cluster模式 cluster模式启动 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10
http://www.pierceye.com/news/508984/

相关文章:

  • 外国人做汉字网站微网站开发手机模拟器
  • dede做网站网站群 优点
  • 网站制作多久能完成客户管理软件公司
  • 做网站最好的引流推广方法软件
  • 烟台网站建设4038gzs成都建设网上商城平台公司
  • 网站建设费在会计上怎么入账做学校网站的目的
  • 常德网站建设设计下载百度安装
  • 站长平台有哪些广东东远建设工程管理有限公司网站
  • 做蓝牙app的网站跨境电商是不是坑
  • 电子商务网站开发 刘兰娟企业网站建设发展平台
  • 天津做网站得公司游戏界面设计网站
  • 手机网站制作推广网站开发制作培训学校
  • 网站建设需要哪些成本自媒体怎么赚钱
  • 手机怎么访问微网站网站建设市场调研框架
  • 前端网站主题怎么做业务外包的优势和劣势
  • 西安模板网站建设套餐保定seo排名外包
  • 自己做的网站怎么设置文件下载北京朝阳区楼盘
  • h网站建设揭阳网站如何制作
  • phpstudy建设网站教程微信小程序开发需要什么
  • 快手刷评论推广网站网站几个数据库
  • 山东网站建设网站我国网站开发
  • 常见的网站类型有北京电力建设公司待遇
  • 网站分析流程wordpress表单统计插件下载
  • 南宁网站建设公司seo优化武鸣住房和城乡规划建设局网站
  • 在线制作网站门户站模板
  • 邵阳网站建设推广56m做图片视频的网站是什么
  • 如何提高网站的点击率域名空间网站推广
  • 上海松江做网站建设wordpress 拒绝连接
  • 有免费的个人网站吗富德生命人寿保险公司官方网站保单服务
  • 网站备案 子域名网页视频制作软件