网站建设套餐服务,建网站没有公司资质,新手学网站建设视频教程共30课高清版,建网站和建小程序多少钱含义及理解#xff1a;
RHCS是Red Hat Cluster Suite的缩写#xff0c;也就是红帽子集群套件#xff0c;RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合#xff0c;#xff0c;它将集群系统中三大集群架构#xff08;高可用性集群、…含义及理解
RHCS是Red Hat Cluster Suite的缩写也就是红帽子集群套件RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合它将集群系统中三大集群架构高可用性集群、负载均衡集群、存储集群融合一体可以给web应用、数据库应用等提供安全、稳定的运行环境。
主要功能 1 . 高可用集群是RHCS的核心功能。当正使用的节点出现故障时RHCS提供的高可用管理组件自动、快速的将应用使用的当前服务节点切换到另一个节点保证应用的正常进行而且节点转移功能对客户来说是透明的所以也能实现应用持续、不间断的对外提供服务 2 . 负载均衡集群是RHCS通过使用LVSLinux Virtual Server实现的。LVS是 一个开源的且功能强大的基于IP的负载均衡技术LVS 由调度器和服务器节点组成通过LVS的负载调度功能可以将客户端请求平均的分配到各服务器节点上当然还可以自定义多种负载均衡策略当客户请求进来时调度器根据负载均衡策略来判断应该将请求分配到哪个服务器节点上然后由分配的服务器节点去响应客户请求。不仅如此LVS 还提供了服务节点故障转移功能简单来说就是当某个服务节点出故障后LVS 会自动屏蔽这个节点并将它从集群踢除同时将新来此节点的请求平滑的转移到其它正常节点上当故障节点恢复正常后LVS 又会自动将此节点加入集群中。这所有操作对客户而言都是透明的从而保证了服务的不间断稳定运行 3 . 储存集群功能是由GFS文件系统实现的。GFSGlobal File System是一个分布式文件系统通过锁管理机制来协调和管理多个服务节点对同一文件系统的读写操作允许多个服务同时去读写一个单一的共享文件系统储存集群通过将共享数据放到一个共享文件系统中从而消除了在应用程序间同步的麻烦。
集群套件的作用
1 . 集群中luci的作用luci是用来配置和管理集群监听在8084上。 2 . 集群中ricci的作用ricci是安装在每个后端的每个节点上的luci管理集群上的各个节点就是通过和节点上的ricci进行通信ricci监听在11111上。 3 . 集群中fence的作用:当意外原因导致主机异常或者宕机时备机会首先调用FENCE设备然后通过FENCE设备将异常主机重启或者从网络隔离当FENCE操作成功执行后返回信息给备机备机在接到FENCE成功的信息后开始接管主机的服务和资源。
实验搭建
准备三台虚拟机6.5版本的关火墙selinux状态为disabled
server1 管理节点和HA节点 172.25.11.1 server2 HA节点 172.25.11.2 server3 作为iscsi共享磁盘 172.25.11.3
给三台虚拟机配置高可用yum源
[rhel6.5]
namerhel6.5
baseurlhttp://172.25.11.250/rhel6.5
enabled1
gpgcheck1
gpgkeyfile:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[HighAvailability]
nameHighAvailability
baseurlhttp://172.25.11.250/rhel6.5/HighAvailability
enabled1
gpgcheck1
gpgkeyfile:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[LoadBalancer]
nameLoadBalancer
baseurlhttp://172.25.11.250/rhel6.5/LoadBalancer
enabled1
gpgcheck1
gpgkeyfile:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[ResilientStorage]
nameResilientStorage
baseurlhttp://172.25.11.250/rhel6.5/ResilientStorage
enabled1
gpgcheck1
gpgkeyfile:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[ScalableFileSystem]
nameScalableFileSystem
baseurlhttp://172.25.11.250/rhel6.5/ScalableFileSystem
enabled1
gpgcheck1
gpgkeyfile:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release配好之后yum repolist 查看一下 scp 拷给server2和server3
在server1上安装ricci、luci
yum install ricci luci -y 下载软件
id ricci 会生成这个用户
passwd ricci 给个密码/etc/init.d/ricci start 开启服务
/etc/init.d/luci start
chkconfig ricci on 开机自启
chkconfig luci on在server2上安装ricci
yum install ricci -y
id ricci
passwd ricci/etc/init.d/ricci start
chkconfig ricci on测试 真机打开浏览器输入https://172.25.11.1:8084 注意要添加安全证书 再将server1 server2添加到集群 查看是否添加成功和集群状态
cat /etc/cluster/cluster.conf
clustat为RHCS高可用添加fence栅
首先配置好fence
yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64
Interface [virbr0]: br0 ##设备选择br0其他用默认
mkdir /etc/cluster
dd if/dev/urandom of/etc/cluster/fence_xvm.key bs128 count1
scp fence_xvm.key rootserver1:/etc/cluster/
scp fence_xvm.key rootserver2:/etc/cluster/
systemctl start fence_virtd.service在web里添加fence Fence Devices----Add----submit 分别为server1和server2添加fenceDomain为虚拟机的MAC地址可在虚拟机管理器查看 测试 在server1上使用fence关掉server2 发现server2被重启
fence_node server2
netstat -antulp | grep 1229 ##udp 1229端口添加httpd资源 添加失败回切和优先级 Failover -- Add -- webfail -- Prioritized -- Restricted -- No Failback此选项选中failover的主机在再次正常时会按优先级大小回切否则不会 server2优先级为1server5优先级为10数字越小优先级越高。 添加vip资源 Resources -- Add -- IP Address 172.25.11.100 24 Monitor Link(选中) Number of … 5 再添加服务 Resources -- Add -- Script Name : httpd Full Path to Script File : /etc/init.d/httpd 两个节点都安装并启动httpd写默认发布页面 添加服务组到集群 Service Groups -- Add Service Name : apache Automatically Start This Service : 选中 Run Exclusive 运行独占先选中 Failover Domain webfail 然后添加资源
Add Resource -- 172.25.0.100/24 -- Script —submit ##添加IP和启动脚本
添加好以后 测试 勾选apache并点击上方start
在真机crul 172.25.11.100 发现默认访问到server2
使server2脑裂测试fence
echo c /proc/sysrq-trigger
ip link set dowm eth0 (使网络挂掉)发现服务器由于server被重启暂时回到server1上 在web页面点击左边第一个按钮即start
添加iscsi网络共享磁盘
给server3在添加一块虚拟磁盘
fdisk -l
fdisk /dev/vda
p 1 回车 回车 wqyum install -y scsi-*配置server3的存储
vim /etc/tgt/targets.conf
38 target iqn.2019-06.com.example:server.target1
39 backing-store /dev/vda1 initiator-address 172.25.11.1initiator-address 172.25.11.2
40 /target/etc/init.d/tgtd starttgt-admin -s ##查看存储信息
ps ax ##看到有2个tgtd进程如果有4个就是错误的在server1和server2两个ha节点上 安装客户端
yum install iscsi-* -y在HA节点上发现并登陆共享存储
iscsiadm -m discovery -t st -p 172.25.11.3
iscsiadm -m node -l
fdisk -l
fdisk -cu /dev/sdb ##只分一个区方便在分区表被破坏的时候恢复
pratprobe
fdisk /dev/sdb
同步过后在server2查看进程
partprobe
cat /proc/partitions该文件格式在把分区改一下
mkfs.ext4 /dev/sdb1
fdisk /dev/sdb
t 8e wq
partprobe在server1创建逻辑卷
pvcreate /dev/sdb1
vgcreate vg /dev/sdb1
lvcreate -L 4G -n lv vg
partprobe在server2同步并查看
partprobe
lvs
pvs
vgs
mkfs.ext4 /dev/vg/lv在web添加webdata文件系统 现在server1server2关闭apache
clusvcadm -d apache点击Service Groups删除原来的添加重新配置这次的添加顺序是IP
Address —- Filesystem —- Script因为服务开启的顺序就是先分配VIP然后开启存储然后再是服务
测试 启动集群服务发现server2自动挂载