asp医院网站源码,深圳市建设项目,网店推广的目的,天河区做网站的公司一#xff1a;基础配置
创建虚拟机并查出ip地址进行连接
ip a1.配置node01静态ip地址与主机名
vi /etc/sysconfig/network-scripts/ifcfg-ens33修改或添加如下内容#xff1a;
BOOTPROTOstatic
ONBOOTyes
#根据虚拟机网卡信息配置
IPADDR192.168.200.141
NET…一基础配置
创建虚拟机并查出ip地址进行连接
ip a1.配置node01静态ip地址与主机名
vi /etc/sysconfig/network-scripts/ifcfg-ens33修改或添加如下内容
BOOTPROTOstatic
ONBOOTyes
#根据虚拟机网卡信息配置
IPADDR192.168.200.141
NETMASK255.255.255.0
GATEWAY192.168.200.2
DNS1114.114.114.114保存退出
vi /etc/hostname修改成node01
2.配置域名解析
vi /etc/hosts192.168.200.141 node01
192.168.200.142 node02
192.168.200.143 node033.关闭防火墙
systemctl stop firewalld
systemctl disable firewalld4.重启虚拟机查看主机名是否修改成功
reboot通过设置的ip进行远程登录
5.卸载自带的JDK可能最小化安装没有默认配置java环境
1)先查看自带的jdk版本
rpm -qa|grep jdk卸载自带的jdk
yum -y remove java-1.*3)再使用rpm -qa|grep jdk检查是否卸载完成
6.安装JDK
上传对应的JDK到虚拟机系统
cd切换到压缩包的路径的文件夹
mkdir /usr/java
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /usr/java配置java的环境变量
vi /etc/profile在文件末尾添加
export JAVA_HOME/usr/java/jdk1.8.0_161
export PATH$PATH:$JAVA_HOME/bin保存退出
使配置立即生效
source /etc/profile 检查是否Java配置成功
java -version7.安装hadoop
上传hadoop,并创建hadoop的安装目录
mkdir /hadoop解压hadoop
tar -zxvf hadoop-2.7.7.tar.gz -C /hadoop/修改hadoop的环境变量
vi /etc/profile修改内容如下(直接末尾修改):
export JAVA_HOME/usr/java/jdk1.8.0_161
export HADOOP_HOME/hadoop/hadoop-2.7.7
export PATH$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin保存退出
使用 source /etc/profile 生效配置
8.安装zookerper
上传zookerper安装包
tar -zxvf zookeeper-3.4.13.tar.gz -C /hadoop/配置zoo.cfg
cd cd /hadoop/zookeeper-3.4.13/conf/
cp zoo_sample.cfg zoo.cfg修改zoo.cfg文件
vi zoo.cfg修改以下内容
dataDir/hadoop/zookeeper-3.4.13/tmp
server.1node01:2888:3888
server.2node02:2888:3888
server.3node03:2888:3888保存退出
9.修改hadoop配置文件
修改/hadoop/hadoop-2.7.7/etc/hadoop里的配置文件 如果之前的配置和我一样的话就直接拉进去覆盖 这里就可以打个快照1
10.克隆出其他节点
适当调整内存我内存小
修改node0203的ip地址与主机名 1改23 能远程连接上就行
11.配置Zookeeper的id
在zookeeper里创建tmp文件夹01、02、03都要创建
mkdir /hadoop/zookeeper-3.4.13/tmp在node01的/hadoop/zookeeper-3.4.13/tmp/myid写入数字1
echo 1 /hadoop/zookeeper-3.4.13/tmp/myid02、03节点各自分别执行
echo 2 /hadoop/zookeeper-3.4.13/tmp/myid
echo 3 /hadoop/zookeeper-3.4.13/tmp/myid12.配置主机间免密登录所以节点
在所以节点执行 (名称、密码不用输入直接回车到结束)
ssh-keygen -t rsa复制公钥到其他节点包括自己
ssh-copy-id node01
ssh-copy-id node02
ssh-copy-id node033个节点重复此操作
测试连接(3个节点重复此操作)
ping -c 4 node01
ping -c 4 node02
ping -c 4 node0313.第一次启动Hadoop
1)启动3台节点的zookeeper在3台节点分别执行
/hadoop/zookeeper-3.4.13/bin/zkServer.sh start查看状态 /hadoop/zookeeper-3.4.13/bin/zkServer.sh status 停止运行/hadoop/zookeeper-3.4.13/bin/zkServer.sh stop 配置成功Mode会有1个leader2个follower3台的zk启动后再查看状态
2启动journalnode在3台节点分别执行
/hadoop/hadoop-2.7.7/sbin/hadoop-daemon.sh start journalnode使用jps命令检查是否有journalnode的进程
3格式化HDFS在01节点上执行
hdfs namenode -format会根据配置的hadoop的tmp文件夹生成文件3个节点的tmp的数据是一致的 将生成的tmp文件夹复制到02、03上的相同位置 可以使用ftp工具或者远程复制
scp -r /hadoop/hadoop-2.7.7/tmp/ rootnode02:/hadoop/hadoop-2.7.7
scp -r /hadoop/hadoop-2.7.7/tmp/ rootnode03:/hadoop/hadoop-2.7.74格式化ZK在01上执行
hdfs zkfc -formatZK5)启动hdfs和yarn
cd /hadoop/hadoop-2.7.7启动hdfs
sbin/start-dfs.sh启动资源管理器 sbin/start-yarn.sh浏览器上访问 192.168.200.141:50070 192.168.200.142:50070 192.168.200.141:8088
6关闭服务
cd /hadoop/hadoop-2.7.7关闭hdfs
sbin/stop-dfs.sh关闭资源管理器
sbin/stop-yarn.sh停止运行zookeeper3台节点都执行
/hadoop/zookeeper-3.4.13/bin/zkServer.sh stop14.成功后再次启动Hdaoop
1)启动3台节点的zookeeper在3台节点分别执行
/hadoop/zookeeper-3.4.13/bin/zkServer.sh start2)在node01上启动hdfs和yarn
/hadoop/hadoop-2.7.7/sbin/start-dfs.sh
/hadoop/hadoop-2.7.7/sbin/start-yarn.sh15.编写启动脚本
1修改zookeeper的配置将java环境直接配置给zk3个节点都修改 修改zookeeper的bin/zkEnv.sh文件添加上java程序的路径如下 具体的实现
vi /hadoop/zookeeper-3.4.13/bin/zkEnv.sh修改内容如下
if [ $JAVA_HOME ! ]; then
JAVA$JAVA_HOME/bin/java
else
JAVA/usr/java/jdk1.8.0_161/bin/java
fi保存退出
在/root下创建文件start-all.sh启动3台的zk级hadoop服务(仅在node01上创建脚本)
vi start-all.sh修改内容如下
#!/bin/bash
echo 启动node01的zookeeper
ssh node01 /hadoop/zookeeper-3.4.13/bin/zkServer.sh start
echo 启动node02的zookeeper
ssh node02 /hadoop/zookeeper-3.4.13/bin/zkServer.sh start
echo 启动node03的zookeeper
ssh node03 /hadoop/zookeeper-3.4.13/bin/zkServer.sh start
echo 启动HDFS
/hadoop/hadoop-2.7.7/sbin/start-dfs.sh
echo 启动资源管理器YARN
/hadoop/hadoop-2.7.7/sbin/start-yarn.sh在/root下创建文件transNodeState.sh设置01为主节点02为备选主节点
vi transNodeState.sh修改内容如下
#!/bin/bash
hdfs haadmin -transitionToStandby --forcemanual nn2
hdfs haadmin -transitionToActive --forcemanual nn1实现停止集群服务的脚本先启动的后关后启动的先关
vi stop-all.sh修改内容如下
#!/bin/bash
echo 关闭资源管理器YARN
/hadoop/hadoop-2.7.7/sbin/stop-yarn.sh
echo 关闭HDFS
/hadoop/hadoop-2.7.7/sbin/stop-dfs.sh
echo 关闭node03的zookeeper
ssh node03 /hadoop/zookeeper-3.4.13/bin/zkServer.sh stop
echo 关闭node02的zookeeper
ssh node02 /hadoop/zookeeper-3.4.13/bin/zkServer.sh stop
echo 关闭node01的zookeeper
ssh node01 /hadoop/zookeeper-3.4.13/bin/zkServer.sh stop16.测试脚本是否可用
1)检查启动脚本是否可用可以多启几次
sh start-all.sh浏览器访问 2可以看到node01为备用节点手动调整node01为主节点
sh transNodeState.sh再次浏览器查看
3关闭所有服务
sh stop-all.sh把所有的脚本都移动到/root下
17.打快照2 内容hadoop基础环境配置成功3个节点都打快照 据说关机再打快照更省空间 感谢大家的支持关注评论点赞 再见