宁波网站优化公司电话,重庆建设工程信息网安全监督,网站的流量怎么赚钱,jrs直播网站谁做的目录 1 准备模版虚拟机hadoop1001.1 修改主机名1.2 修改hosts文件1.3 修改IP地址1.3.1 查看网络IP和网关1.3.2 修改IP地址 1.4 关闭防火墙1.5 创建普通用户1.6 创建所需目录1.7 卸载虚拟机自带的open JDK1.8 重启虚拟机 2 克隆虚拟机3 在hadoop101上安装JDK3.1 传输安装包并解压… 目录 1 准备模版虚拟机hadoop1001.1 修改主机名1.2 修改hosts文件1.3 修改IP地址1.3.1 查看网络IP和网关1.3.2 修改IP地址 1.4 关闭防火墙1.5 创建普通用户1.6 创建所需目录1.7 卸载虚拟机自带的open JDK1.8 重启虚拟机 2 克隆虚拟机3 在hadoop101上安装JDK3.1 传输安装包并解压3.2 配置JDK环境变量3.3 测试JDK是否安装成功 4 在hadoop101上安装Hadoop4.1 解压安装包4.2 配置Hadoop环境变量4.3 测试Hadoop是否安装成功 笔者使用镜像为CentOS-7.5-x86_64-DVD-1804.iso 1 准备模版虚拟机hadoop100 以 CentOS-7.5-x86-1804为例安装成功后
1.1 修改主机名 查看当前主机名
hostname修改当前主机名
vim /etc/hostname修改主机名为 hadoop100
1.2 修改hosts文件 修改linux的主机映射文件hosts文件
编辑 /etc/hosts
vim /etc/hosts添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105修改windows的主机映射文件hosts文件
进入C:\Windows\System32\drivers\etc 路径打开hosts文件并添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop1051.3 修改IP地址
1.3.1 查看网络IP和网关 查看虚拟网络编辑器 查看windows环境的中VMnet8网络配置 1.3.2 修改IP地址 vim /etc/sysconfig/network-scripts/ifcfg-ens33编辑完后按键盘esc 然后输入 :wq 回车即可。
重启网络
systemctl restart network查看修改后的IP
ifconfig或者
ip addr1.4 关闭防火墙 关闭防火墙并关闭防火墙开机自启
systemctl stop firewalld
systemctl disable firewalld1.5 创建普通用户 创建普通用户huwei
useradd huwei修改普通用户huwei的密码
passwd huwei配置 huwei 用户具有 root 权限方便后期加 sudo 执行 root 权限的命令
vim /etc/sudoersesc键入:set nu显示行号找到91行在 root 下面添加一行 esc对该只读文件保存强制退出:wq!
1.6 创建所需目录 在 /opt 目录下创建 module、software 文件夹
mkdir /opt/module
mkdir /opt/software修改 module、software 文件夹的所有者和所属组均为 huwei 用户
chown huwei:huwei /opt/module
chown huwei:huwei /opt/software查看module、software文件夹的所有者和所属组
cd /opt/
ll1.7 卸载虚拟机自带的open JDK rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps1.8 重启虚拟机 reboot2 克隆虚拟机 利用模板机 hadoop100克隆三台虚拟机hadoop101 、hadoop102、hadoop103
然后修改克隆机IP以下以 hadoop101 举例说明。
修改IP地址只需改 IPADDR192.168.10.101
vim /etc/sysconfig/network-scripts/ifcfg-ens33修改主机名为 hadoop101
vim /etc/hostname重启
暂时不考虑克隆 hadoop102、hadoop103
3 在hadoop101上安装JDK
3.1 传输安装包并解压 将 hadoop 和 jdk 通过传输工具上传到 /opt/software 切换到 /opt/software目录下解压 jdk到 /opt/module目录下
cd /opt/software
tar -zxvf jdk-8u212-linux-x64.tar.gz -C ../module/3.2 配置JDK环境变量 新建 /etc/profile.d/jdk.sh文件
sudo vim /etc/profile.d/my_env.sh添加如下内容
# JAVA_HOME
export JAVA_HOME/opt/module/jdk1.8.0_212
export PATH$PATH:$JAVA_HOME/bin使环境变量生效
source /etc/profile3.3 测试JDK是否安装成功 java -version如果能看到以上结果则代表 Java 安装成功
4 在hadoop101上安装Hadoop
4.1 解压安装包 切换到 /opt/software目录下解压 jdk到 /opt/module目录下
cd /opt/software
tar -zxvf hadoop-3.1.3.tar.gz -C ../module/查看Hadoop目录结构
cd /opt/module/hadoop-3.1.3/
ll重要目录
bin目录存放对Hadoop相关服务HDFS,YARN进行操作的脚本etc目录Hadoop的配置文件目录存放Hadoop的配置文件lib目录存放Hadoop的本地库对数据进行压缩解压缩功能sbin目录存放启动或停止Hadoop相关服务的脚本share目录存放Hadoop的依赖jar包、文档、和官方案例
4.2 配置Hadoop环境变量 编辑 /etc/profile.d/jdk.sh文件
sudo vim /etc/profile.d/my_env.sh添加如下内容
#HADOOP_HOME
export HADOOP_HOME/opt/module/hadoop-3.1.3
export PATH$PATH:$HADOOP_HOME/bin
export PATH$PATH:$HADOOP_HOME/sbin使环境变量生效
source /etc/profile4.3 测试Hadoop是否安装成功 hadoop version如果能看到以上结果则代表 Hadoop 安装成功