当前位置: 首页 > news >正文

商城网站建设公司价格物业管理系统功能结构图

商城网站建设公司价格,物业管理系统功能结构图,东莞seo建站公司,app官方安装下载一、单机模式 步骤#xff1a; 1、使用XFTP将Flink安装包flink-1.13.5-bin-scala_2.11.tgz发送到master机器的主目录。 2、解压安装包#xff1a; tar -zxvf ~/flink-1.13.5-bin-scala_2.11.tgz 3、修改文件夹的名字#xff0c;将其改为flume#xff0c;或者创建软连接…一、单机模式 步骤 1、使用XFTP将Flink安装包flink-1.13.5-bin-scala_2.11.tgz发送到master机器的主目录。 2、解压安装包 tar -zxvf ~/flink-1.13.5-bin-scala_2.11.tgz 3、修改文件夹的名字将其改为flume或者创建软连接也可 mv ~/flink-1.13.5 ~/flink 4、配置环境变量 vim ~/.bashrc 然后在文件末尾添加以下内容 export FLINK_HOME/home/hadoop/flinkexport PATH$FLINK_HOME/bin:$PATH 保存文件然后刷新环境变量或重新启动命令行终端 source ~/.bashrc 5、可以使用以下命令开启一个Flink的Scala控制台 start-scala-shell.sh local 二、Flink Standalone模式集群 步骤 1、使用vim命令配置Flink的flink-conf.yaml配置文件 cd ~/flink/conf vim flink-conf.yaml 配置内容如下注意这里仅展示其中要修改的参数其余参数配置保持不变 jobmanager.rpc.address: masterjobmanager.rpc.port: 6123jobmanager.memory.process.size: 1600mtaskmanager.memory.process.size: 1728mtaskmanager.numberOfTaskSlots: 3parallelism.default: 3high-availability: zookeeperhigh-availability.zookeeper.quorum: master:2181,slave1:2181,slave2:2181high-availability.cluster-id: /cluster_onehigh-availability.zookeeper.path.root: /flinkhigh-availability.storageDir: hdfs://mycluster/flink/ha/ 2、配置workers vim workers 修改为以下内容 master slave1 slave2 3、配置masters为节省资源我们只在master启动主节点即可如需启动备用节点则需要在此处添加其他节点以作为备用节点 vim masters 修改为以下内容 master:8088 可指定端口可访问web 4、添加Hadoop依赖包若打算使Flink与Hadoop能够协同工作比如后续在YARN上运行Flink、使用Flink连接到HDFS、HBase等那么就需要将Flink对应Hadoop版本的shaded包放到Flink安装目录的lib文件夹内或者添加到Hadoop的环境变量中这里使用第一种方法进行配置 使用XFTP将 flink-shaded-hadoop-2-uber-2.8.3-10.0.jar 放到 ~/flink/lib 文件夹内 5、接着把配置好的Flink安装目录使用scp命令发送到其他节点 scp -r ~/flink hadoopslave1:~scp -r ~/flink hadoopslave2:~ 6、如第3步中配置了其他备用主节点则需要做这步只配置了一个master的话这一步可以跳过在备用主节点slave1上修改flink-conf.yaml将其中的jobmanager.rpc.address一项修改为 slave1cd ~/flink/confvim flink-conf.yaml 修改内容如下 jobmanager.rpc.address: slave1 7、依次启动ZooKeeper、HDFS、YARN集群以启动Hadoop 8、在master节点上启动Flink Standalone集群 start-cluster.sh 三、Flink on YARN模式 要使用Flink on YARN只需要修改环境变量让Flink可以从系统环境变量中读取到Hadoop的配置信息即可 vim ~/.bashrc 然后在末尾添加Hadoop配置文件夹的目录环境 export HADOOP_CONF_DIR$HADOOP_HOME/etc/hadoop 然后刷新环境变量 source ~/.bashrc 后续就可以使用 yarn-session.sh 启动  yarn session 来运行Flink任务或者使用 flink run 命令直接将Flink任务提交到YARN上运行。
http://www.pierceye.com/news/587917/

相关文章:

  • 长沙建网站需要多少钱夹江移动网站建设
  • 淄博网站制作高端网站后台任务
  • 营销型网站源码成都网站建设seo
  • 天津网上商城网站建设专业的猎头公司
  • 西平县住房城乡建设局网站西部数码网站管理助手3.0
  • 承德市网站建设WordPress电影资源分享下载站
  • 专注于网络推广及网站建设wordpress离线发布功能
  • 营销型网站案例提高wordpress打开速度
  • 怎么样做一个网站自己个人网站后台怎么做
  • 源码站免费找客户网站
  • idc空间商网站源码知名的网站建设
  • 什么叫网站降权建设网站租服务器
  • 网站后台模板怎样使用站长平台
  • 写一个app需要多少钱龙岩seo包年系统排行榜
  • 科技公司企业网站建设手机360网站seo优化
  • 做翻译 英文网站黑色时尚橱柜网站源码
  • wordpress 主机要求珠海百度推广优化
  • 台山网站建设哈尔滨网站建设收费
  • 卖主机 服务器的网站wordpress自动标签内联
  • 28创业商机网seo在线优化技术
  • 建设银行网站查询余额世界杯球队最新排名
  • 网站对联广告做戒指网站的logo照片
  • 网站开发 项目计划书网页设计产品介绍页面的制作
  • 专做正品 网站青岛 网站制作
  • wordpress建站镜像杭州网站开发公司排名
  • 网站都需要什么类别网站首页seo关键词布局
  • 泰安千橙网站建设北京活动策划公司黄页
  • 网页网站模板北京市工商注册网上服务系统
  • 企业网站建设报价明细表免费ppt模板下载哪个网站好
  • 佛山做公司网站全球域名