当前位置: 首页 > news >正文

深圳网站工作室一个ip可以建设多少个网站

深圳网站工作室,一个ip可以建设多少个网站,网站模板 修改,网站开发用了哪些技术总体步骤 1、分配机器#xff0c;各安装什么软件 2、每个节点设置时间一致#xff0c;设置开机自动校验时间。 3、每个节点修改主机名。 4、每个节点配置hosts。 5、每个节点关闭防火墙。 6、上传JDK#xff0c;配置JDK 7、创建hadoop用户。 8、给hadoop用户配置root…总体步骤 1、分配机器各安装什么软件 2、每个节点设置时间一致设置开机自动校验时间。 3、每个节点修改主机名。 4、每个节点配置hosts。 5、每个节点关闭防火墙。 6、上传JDK配置JDK 7、创建hadoop用户。 8、给hadoop用户配置root组 -------以下hadoop用户的操作--------- 9、开启ssh免密登录。 10、上传Zookeeper到HA8,解压 11、环境变量配置zookeeper 12、配置zoo.cfg文件。 13、创建zoo.cfg中配置的文件夹 14、配置myid文件 15、删除zookeeper安装目录下无用的帮助文档。 16、scp zookeeper的安装目录到8,9,10节点。 17、修改其他节点上的 myid文件 18、scp 环境变量到其他节点。 19、source 各个节点的环境变量。 20、启动。 21、查看状态。 22、停止Zookeeper 23、上传hadoop 压缩包解压 24、配置hadoop 环境变量 25、配置hadoop-HA参数 26、scp环境变量到1~7节点 27、source 环境变量1~7节点 28、scp hadoop.xxx文件夹到1~7节点 29、启动 *将整个过程编程shell或Python命令 1、分配机器 10台centos 机器名 安装的软件 进程 HA1 JDK,hadoop namenode,zkfc HA2 JDK,hadoop namenode,zkfc HA3 JDK,hadoop resourcemanager HA4 JDK,hadoop resourcemanager HA5 JDK,hadoop datenodenodemanager HA6 JDK,hadoop datenodenodemanager HA7 JDK,hadoop datenodenodemanager HA8 JDK,zookeeper,hadoop JournalNode、QuorumPeerMainzkfc状态值yarn的ha状态值 HA9 JDK,zookeeper,hadoop JournalNode、QuorumPeerMainzkfc状态值yarn的ha状态值 HA10 JDK,zookeeper,hadoop JournalNode、QuorumPeerMainzkfc状态值yarn的ha状态值 2、每个节点设置时间一致设置开机自动校验时间。 chkconfig --list chkconfig --level 12345 ntpdate on service ntpdate start 3、每个节点修改主机名。 vi /etc/sysconfig/network hostname HA123456...10 4、每个节点配置hosts。 vi /etc/hosts 192.168.18.136 HA1 192.168.18.137 HA2 192.168.18.138 HA3 192.168.18.139 HA4 192.168.18.140 HA5 192.168.18.141 HA6 192.168.18.142 HA7 192.168.18.143 HA8 192.168.18.144 HA9 192.168.18.145 HA10 //要编写一个shell脚本如果集群里有几十台怎么办 5、每个节点关闭防火墙。 chkconfig iptables off service iptables stop 6、新建application文件夹上传JDK配置JDK 每台机器都需要 1、HA1上传JDK压缩包到根目录 2、解压到根目录 tar -xzvf jdk-8u73-linux-x64.tar.gz vi /etc/profile export JAVA_HOME/jdk1.8.0_73 export PATH$PATH:$JAVA_HOME/bin 删除一些无用的文件 拷贝到其他机器在向所有窗口发送中输入 scp -r HA1:/jdk1.8.0_73/ $HOSTNAME:/ 拷贝 /etc/profile 到其他机器 scp HA1:/etc/profile $HOSTNAME:/etc/profile source /etc/profile 7、 创建hadoop账号 adduser hadoop passwd hadoop 123456 8、给hadoop用户配置root组 vi /etc/sudoers ## Allow root to run any commands anywhere root ALL(ALL) ALL 在这里添加 hadoop ALL(ALL) ALL ------------以下hadoop用户的操作----------------- 9、开启ssh免密登录。 ssh-keygen -t rsa touch authorized_keys 修改authorized_keys文件权 限为 600命令chmod 600 authorized_keys 如果不修改权限通不过linux的权限认证ssh会无效的 这个ssh免密登录是针对hadoop用户。root用户没有配置不能免密登录对方。ssh免密是用户有效 10、上传Zookeeper到HA8,解压 上传到home文件夹下 解压到home文件夹下 tar -xzvf zookeeper-3.3.6.tar.gz 11、环境变量配置zookeeper sudo vi /etc/profile export ZOOKEEPER_HOME/home/hadoop/zookeeper-3.3.6 export PATH$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin 12、配置zoo.cfg文件。 cd conf/ cp zoo_sample.cfg zoo.cfg vi zoo.cfg dataDir/home/hadoop/zookeeper-3.3.6/data dataLogDir/application/zookeeper-3.3.6/log server.1HA8:2888:3888 server.2HA9:2888:3888 server.3HA10:2888:3888 13、创建zoo.cfg中配置的文件夹 [hadoopHA8 zookeeper-3.3.6]$ mkdir data [hadoopHA8 zookeeper-3.3.6]$ mkdir log 14、配置myid文件 cd data vi myid 1 不能带有空格或空行 15、删除zookeeper安装目录下无用的帮助文档。 rm -rf docs dist-maven/ rm -rf src.zip *.txt javafx-src.zip *.html rm -rf *.xml *.txt src zookeeper-3.3.6.jar.* 16、scp zookeeper的安装目录到8,9,10节点。 [hadoopHA8 ~]$ scp -r zookeeper-3.3.6 HA9:/home/hadoop [hadoopHA8 ~]$ scp -r zookeeper-3.3.6 HA10:/home/hadoop 17、修改其他节点上的 myid文件 cd data vi myid  2  另一台 3 不能带有空格或空行 18、scp 环境变量到其他节点。 sudo scp /etc/profile HA9:/etc/profile sudo scp /etc/profile HA10:/etc/profile 19、source 各个节点的环境变量。 source /etc/profile 20、启动。 8910三台机器都要运行 zkServer.sh start 21、查看状态。 8910三台都要运行 jsp zkServer.sh status 22、停止Zookeeper Zookeeper安装启动成功后先stop。 8910三台都要运行 zkServer.sh stop 23、上传hadoop 压缩包解压 [hadoopHA1 hadoop-2.7.3]$ tar -xzvf hadoop-2.7.3.tar.gz 24、配置hadoop 环境变量 sodu vi /etc/profile export HADOOP_HOME/home/hadoop/hadoop-2.7.3 export PATH$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 除了配置HA1还要配置 HA8,9,10 25、配置hadoop-HA参数 25.1修改hadoop-env.sh vi hadoop-env.sh #export JAVA_HOME${JAVA_HOME} export JAVA_HOME/jdk1.8.0_73 25.2修改core-site.xml configuration !-- 指定hdfs的nameservice为nbdo -- property namefs.defaultFS/name valuehdfs://nbdo//value /property !-- 指定hadoop临时目录 -- property namehadoop.tmp.dir/name value/home/hadoop/app/hdpdata//value /property !-- 指定zookeeper地址 -- property nameha.zookeeper.quorum/name valueHA8:2181,HA9:2181,HA10:2181/value /property /configuration 25.3修改hdfs-site.xml configuration !--指定hdfs的nameservice为nbdo需要和core-site.xml中的保持一致 -- property namedfs.nameservices/name valuenbdo/value /property !-- nbdo下面有两个NameNode分别是nn1nn2 -- property namedfs.ha.namenodes.nbdo/name valuenn1,nn2/value /property !-- nn1的RPC通信地址 -- property namedfs.namenode.rpc-address.nbdo.nn1/name valueHA1:9000/value /property !-- nn1的http通信地址 -- property namedfs.namenode.http-address.nbdo.nn1/name valueHA1:50070/value /property !-- nn2的RPC通信地址 -- property namedfs.namenode.rpc-address.nbdo.nn2/name valueHA2:9000/value /property !-- nn2的http通信地址 -- property namedfs.namenode.http-address.nbdo.nn2/name valueHA2:50070/value /property !-- 指定NameNode的edits元数据在JournalNode上的存放位置 -- property namedfs.namenode.shared.edits.dir/name valueqjournal://HA8:8485;HA9:8485;HA10:8485/nbdo/value /property !-- 指定JournalNode在本地磁盘存放数据的位置 -- property namedfs.journalnode.edits.dir/name value/home/hadoop/journaldata/value /property !-- 开启NameNode失败自动切换 -- property namedfs.ha.automatic-failover.enabled/name valuetrue/value /property !-- 配置失败自动切换实现方式 -- property namedfs.client.failover.proxy.provider.nbdo/name valueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value /property !-- 配置隔离机制方法多个机制用换行分割即每个机制暂用一行防止脑裂问题-- property namedfs.ha.fencing.methods/name value sshfence shell(/bin/true) /value /property !-- 使用sshfence隔离机制时需要ssh免登陆 -- property namedfs.ha.fencing.ssh.private-key-files/name value/home/hadoop/.ssh/id_rsa/value /property !-- 配置sshfence隔离机制超时时间 -- property namedfs.ha.fencing.ssh.connect-timeout/name value30000/value /property /configuration 25.4修改mapred-site.xml [hadoopHA1 hadoop]$ cp mapred-site.xml.template mapred-site.xml [hadoopHA1 hadoop]$ vi mapred-site.xml configuration !-- 指定mr框架为yarn方式 -- property namemapreduce.framework.name/name valueyarn/value /property /configuration 25.5修改yarn-site.xml configuration !-- 开启RM高可用 -- property nameyarn.resourcemanager.ha.enabled/name valuetrue/value /property !-- 指定RM的cluster id -- property nameyarn.resourcemanager.cluster-id/name valueyrc/value /property !-- 指定RM的名字 -- property nameyarn.resourcemanager.ha.rm-ids/name valuerm1,rm2/value /property !-- 分别指定RM的地址 -- property nameyarn.resourcemanager.hostname.rm1/name valueHA3/value /property property nameyarn.resourcemanager.hostname.rm2/name valueHA4/value /property !-- 指定zk集群地址 -- property nameyarn.resourcemanager.zk-address/name valueHA8:2181,HA9:2181,HA10:2181/value /property property nameyarn.nodemanager.aux-services/name valuemapreduce_shuffle/value /property /configuration 25.5修改slaves (slaves是指定子节点的位置因为要在HA1和HA2上启动HDFS、在HA3和HA4启动yarn所以HA1和HA2上的slaves文件指定的是datanode的位置HA3和HA4上的slaves文件指定的是nodemanager的位置) HA5 HA6 HA7 26、scp环境变量到1~7节点 sudo scp HA1:/etc/profile $HOSTNAME:/etc/profile 27、source 环境变量1~7节点 source /etc/profile 28、scp hadoop.xxx文件夹其他9台机器 删除share文件下的doc文件夹 rm -rf doc scp -r HA1:/home/hadoop/hadoop-2.7.3 $HOSTNAME:/home/hadoop/ 29、启动 顺序严格按照 29.1启动Zookeeper HA8,9,10 zkServer.sh start 29.2启动journalnode HA8,9,10 hadoop-daemon.sh start journalnode 29.3格式化HDFS #在HA1上执行命令: hdfs namenode -format #格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件这里我配置的是/home/hadoop/app/hdpdata/然后将/home/hadoop/app/hdpdata/拷贝到HA2的/home/hadoop/app/hdpdata/。 scp -r ##也可以这样建议HA2上运行hdfs namenode -bootstrapStandby 29.4格式化ZKFC(在HA1上执行一次即可) hdfs zkfc -formatZK 29.5启动HDFS(在HA1上执行) sbin/start-dfs.sh 29.6启动YARN (#####注意#####是在HA3上执行start-yarn.sh把namenode和resourcemanager分开是因为性能问题因为他们都要占用大量资源所以把他们分开了他们分开了就要分别在不同的机器上启动) HA3上sbin/start-yarn.sh HA4上yarn-daemon.sh start resourcemanager yarn-ha还需要手动启动HA4上yarn-daemon.sh start resourcemanager第二个resourcemanager 因为start-yarn.sh不具备启动第二个resourcemanager的功能 [hadoopHA1 .ssh]$ jps 2949 DFSZKFailoverController 3064 Jps 2622 NameNode [hadoopHA1 .ssh]$ [hadoopHA2 .ssh]$ jps 2040 NameNode 2154 DFSZKFailoverController 2287 Jps [hadoopHA3 ~]$ jps 2593 ResourceManager 2859 Jps [hadoopHA4 ~]$ jps 2320 ResourceManager 2376 Jps [hadoopHA4 ~]$ [hadoopHA5 ~]$ jps 2331 Jps 2220 NodeManager 2015 DataNode [hadoopHA5 ~]$ [hadoopHA6 ~]$ jps 2317 Jps 2206 NodeManager 2015 DataNode [hadoopHA6 ~]$ [hadoopHA7 ~]$ jps 2419 NodeManager 2551 Jps 2008 DataNode [hadoopHA7 ~]$ [hadoopHA8 ~]$ jps 2187 Jps 1979 QuorumPeerMain 2031 JournalNode [hadoopHA8 ~]$ [hadoopHA9 ~]$ jps 2001 JournalNode 2157 Jps 1951 QuorumPeerMain [hadoopHA9 ~]$ [hadoopHA10 ~]$ jps 2178 Jps 2019 JournalNode 1961 QuorumPeerMain [hadoopHA10 ~]$ http://192.168.18.136:50070/HDFS管理界面 http://192.168.18.138:8088/ MR管理界面
http://www.pierceye.com/news/663966/

相关文章:

  • 网站备案电话号码购物商城网站建设方案
  • 手机商城系统徐州seo计费管理
  • 西安网站公司哪家好信息推广的方式有哪些
  • 网站开发注意的事项商丘网站制作软件
  • 51zwd一起做网站广州广东省网站备案查询
  • 如何生成一个网站自己弄公司网站
  • 企业信用信息查询网官网孝感网站seo
  • 中淼建设工程有限公司网站分类用wordpress
  • 腾讯建设网站首页做销售网站
  • 推广引流网站聚名网注册
  • 原来做网站后来跑国外了多伦多网站建设多少钱
  • 手机建站平台做母婴网站设计思路
  • 免费个人手机网站九八智能建站
  • 中山网站备案如何做购物网站
  • 常见的简单的网站制作建设网站的好公司
  • 邯郸网站制作建设wordpress+怎么迁移
  • 设计创意广告上海企业网站优化
  • 自己做网站需要购买服务器吗WordPress文章相册修改
  • 校园招聘哪个网站做的好学做川菜网站
  • 大足网站建设公司医院网站建设熊掌号
  • 做网站编辑是不是也要做推广做蛋白go分析网站
  • 免费品牌网站制作云南电商网站建设
  • 宿迁莱布拉网站建设常州做网站建设的公司
  • 广东网站建站系统哪家好常州网站搭建公司
  • 400网站建设推广软件工程师工资
  • 专门做正品的网站手机版深圳市门户网站建设怎么样
  • 做外贸比较好的网站有哪些北京短视频代运营
  • 建站公司学习筑梦网站建设
  • 手工艺品网站建设侧胡顺个人简历表格可填写
  • 电商网站竞价推广策略淘宝做问卷的网站