可以做视频的一个网站,国外网站加速,济南计算机培训机构哪个最好,如何免费注册网址目录
一、MHA概述
1.1 什么是 MHA
1.2MHA 的组成
1.2.1MHA Node#xff08;数据节点#xff09;
1.2.2MHA Manager#xff08;管理节点#xff09; 1.3MHA 的特点
1.4MHA工作原理
1.5数据同步的方式
1.5.1同步复制
1.5.2异步复制
1.5.3半同步复制
二、搭建 MySQ…目录
一、MHA概述
1.1 什么是 MHA
1.2MHA 的组成
1.2.1MHA Node数据节点
1.2.2MHA Manager管理节点 1.3MHA 的特点
1.4MHA工作原理
1.5数据同步的方式
1.5.1同步复制
1.5.2异步复制
1.5.3半同步复制
二、搭建 MySQL MHA
2.1环境准备
2.2 配置主从复制
2.2.1所有服务器关闭防火墙与selinux
2.2.2修改 Master、Slave1、Slave2 节点的主机名
2.2.3修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
主服务节点
从服务节点
2.2.4在 Master、Slave1、Slave2 节点上都创建两个软链接
2.2.5登录数据库进行授权
在 Master、Slave1、Slave2 节点上都进行主从同步的授权
2.2.6配置主从同步
①在 Master 节点查看二进制文件和同步点 ②在 Slave1、Slave2 节点都执行同步操作
一般Slave_IO_Running:No的可能性
2.2.7在 Master 主库插入条数据测试是否同步
2.3配置MHA所有组件
2.3.1所有服务器上都安装 MHA 依赖的环境首先安装 epel 源
2.3.2所有服务器安装MHA依赖的环境
2.3.3安装 MHA 软件包必须先在所有服务器上安装 node 组件
2.3.4最后在 MHA manager 节点上安装 manager 组件
2.3.5在所有服务器上配置无密码认证
2.3.6在 manager 节点上配置 MHA
2.3.7第一次配置需要在 Master 节点上手动开启虚拟IP地址
2.3.8在 manager 节点上测试 ssh 无密码认证
2.3.9在 manager 节点上测试 mysql 主从连接情况
2.3.10在 manager 节点上启动 MHA
2.3.11在 manager 节点上查看 MHA 状态 和 MHA 日志可以看到 master的地址
2.3.12查看master 的 VIP 地址 192.168.10.200 是否存在
2.4故障模拟
2.5故障修复
2.5.1修复原来的master即修复原来的主节点
2.5.2修复主从
2.5.3在 manager 节点上修改配置文件app1.cnf
2.5.4在 manager 节点上启动 MHA 一、MHA概述
1.1 什么是 MHA
MHAMasterHigh Availability是一套优秀的MySQL高可用环境下故障切换和主从复制的软件MHA 的出现就是解决MySQL 单点的问题。MySQL故障切换过程中MHA能做到0-30秒内自动完成故障切换操作。MHA能在故障切换的过程中最大程度上保证数据的一致性以达到真正意义上的高可用。
1.2MHA 的组成
1.2.1MHA Node数据节点
MHA Node 运行在每台 MySQL 服务器上
1.2.2MHA Manager管理节点
MHA Manager 可以单独部署在一台独立的机器上管理多个 master-slave 集群也可以部署在一台 slave 节点上。MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时它可以自动将最新数据的 slave 提升为新的 master然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。 1.3MHA 的特点
●自动故障切换过程中MHA试图从宕机的主服务器上保存二进制日志最大程度的保证数据不丢失 ●使用半同步复制可以大大降低数据丢失的风险如果只有一个slave已经收到了最新的二进制日志MHA可以将最新的二进制日志应用于其他所有的slave服务器上因此可以保证所有节点的数据一致性 ●目前MHA支持一主多从架构最少三台服务即一主两从
1.4MHA工作原理
1、从宕机崩溃的master 保存二进制日志事件binlog events 2、识别含有最新的更新 slave 日志 3、应用差异的中继日志relay log到其他的slave 4、应用从master保存的二进制日志事件 5、提升一个 salve 为新的master 6、使其他的slave连接行的master 进行复制。
1.5数据同步的方式
1.5.1同步复制 客户端提交專务时候 master 要等所有从服务器同步完 才返回给客户端 1.5.2异步复制 只要master 完成 客户端的提交事务就会返回给客户端信息 并不关心从是否同步到数据 1.5.3半同步复制 客户端提交事务的时候 master 会等其中一个 slave从 同步完数据之后 会返回给客户端 一般采用的是半同步复制 二、搭建 MySQL MHA MHA :为了解决的了是故障切换、数据尽可能的保存以及所有节点日志的一致性 2.1环境准备 Master 服务器 master 192.168.246.7 MHA node 组件 Slave1 服务器 slave1 192.168.246.10 MHA node 组件 Slave2 服务器 slave2 192.168.246.11 MHA node 组件 MHA manager 服务器 manager 192.168.246.12 MHA node 和 manager 组件 1MHA架构①数据库安装 ②一主两从 ③MHA搭建
2故障模拟①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库
2.2 配置主从复制
2.2.1所有服务器关闭防火墙与selinux Master、Slave1、Slave2 节点安装的是mysql5.7
2.2.2修改 Master、Slave1、Slave2 节点的主机名
#master主节点
[rootlocalhost ~]#hostnamectl set-hostname master
[rootlocalhost ~]#su
[rootmaster ~]# #slave1主节点
[rootslave1 ~]#hostnamectl set-hostname slave1
[rootslave1 ~]#su
[rootslave1 ~]##slave2主节点
[rootlocalhost ~]#hostnamectl set-hostname slave2
[rootlocalhost ~]#su
[rootslave2 ~]# 2.2.3修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
#Master 节点
vim /etc/my.cnf
[mysqld]
server-id 1
log_bin master-bin #开启二进制日志
log-slave-updates true #允许slave从master复制数据时可以写入到自己的二进制日志
--------------------------------------------
systemctl restart mysqld #重启mysql
#Slave1节点vim /etc/my.cnf
[mysqld]
server-id 2 #三台服务器的 server-id 不能相同
log_bin master-bin #开启中继日志
relay-log relay-log-bin
relay-log-index slave-relay-bin.index
-----------------------------------------------------
systemctl restart mysqld
#Slave2节点vim /etc/my.cnf
[mysqld]
server-id 3 #三台服务器的 server-id 不能相同
log_bin master-bin #开启中继日志
relay-log relay-log-bin #添加定义中继日志文件位置与名称一般与二进制文件在同一目录
relay-log-index slave-relay-bin.index
------------------------------------------------
systemctl restart mysqld #重启mysql
主服务节点 server-id 1
log_bin master-bin
log-slave-updates true 从服务节点 server-id 2
log_bin master-bin
relay-log relay-log-bin
relay-log-index slave-relay-bin.index 从服务器2 server-id 3
log_bin master-bin
relay-log relay-log-bin
relay-log-index slave-relay-bin.index 2.2.4在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
ls /usr/sbin/mysql* #查看软连接
/usr/sbin/mysql /usr/sbin/mysqlbinlog 2.2.5登录数据库进行授权
在 Master、Slave1、Slave2 节点上都进行主从同步的授权
grant replication slave on *.* to myslave192.168.246.% identified by 123123;
grant all privileges on *.* to mha192.168.246.% identified by manager;
grant all privileges on *.* to mhamaster identified by manager;
grant all privileges on *.* to mhaslave1 identified by manager;
grant all privileges on *.* to mhaslave2 identified by manager;
flush privileges; 主服务器授权 2.2.6配置主从同步
①在 Master 节点查看二进制文件和同步点
#在 Master 节点查看二进制文件和同步点即偏移量
show master status; ②在 Slave1、Slave2 节点都执行同步操作
#在 Slave1、Slave2 节点执行同步操作change master to
master_host192.168.246.7,
master_usermyslave,
master_password123123,
master_log_filemaster-bin.000001,
master_log_pos1747;------------------------------------------------
start slave; #开启同步如有报错执行 reset slave;
------------------------------------ show slave status\G #在 Slave1、Slave2 查看节点状态#确保 IO 和 SQL 线程都是 Yes代表同步正常。Slave_IO_Running: YesSlave_SQL_Running: Yes
slave1配置 slave2配置 一般Slave_IO_Running:No的可能性 网络不通my.cnf配置有问题密码、file文件名、pos偏移量不对防火墙没有关闭 两个从数据库设置为只读模式 set global read_only1;#两个从库必须设置为只读模式 2.2.7在 Master 主库插入条数据测试是否同步
#在Master主库插入数据测试数据库同步##
mysql create database anhui;
Query OK, 1 row affected (0.00 sec)mysql use anhui;
Database changed
mysql create table wuhu(id int(3),name varchar(6));
Query OK, 0 rows affected (0.02 sec)mysql insert into wuhu values(1,lirh);
Query OK, 1 row affected (0.14 sec)mysql select * from wuhu;
------------
| id | name |
------------
| 1 | lirh |
------------
1 row in set (0.00 sec)mysql从数据库中验证数据同步
#从数据库中验证是否同步成功
show databases;
use anhui;
show tables;
select * from wuhu; 2.3配置MHA所有组件
2.3.1所有服务器上都安装 MHA 依赖的环境首先安装 epel 源
yum install epel-release --nogpgcheck -y #首先安装epel 源yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN#安装 MHA依赖环境
所有服务器上首先安装epel源
yum install epel-release --nogpgcheck -y 2.3.2所有服务器安装MHA依赖的环境 对于每个操作系统版本不一样这里 CentOS7.6选择 0.57 版本。在所有服务器上必须先安装 node 组件最后在 MHA-manager 节点上安装 manager 组件因为 manager 依赖 node 组件 2.3.3安装 MHA 软件包必须先在所有服务器上安装 node 组件 在所有服务器上安装 node 组件 #将安装包上传到/opt/目录中解压安装node组件
cd /opt/
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make make install
四台机器都分别拖入安装包 #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本 这些工具通常由 MHAManager 的脚本触发无需人为操作主要如下 save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件MHA 已不再使用这个工具
purge_relay_logs 清除中继日志不会阻塞 SQL 线程 2.3.4最后在 MHA manager 节点上安装 manager 组件
在 MHA manager 节点上安装 manager 组件##manager组件依赖node 组件
[rootmanager mha4mysql-node-0.57]#cd /opt
[rootmanager opt]#ls
mha4mysql-manager-0.57.tar.gz mha4mysql-node-0.57 mha4mysql-node-0.57.tar.gz rh
[rootmanager opt]#tar xf mha4mysql-manager-0.57.tar.gz
[rootmanager opt]#cd mha4mysql-manager-0.57/
[rootmanager mha4mysql-manager-0.57]#perl Makefile.PL
[rootmanager mha4mysql-manager-0.57]#make make install #manager 组件安装后在/usr/local/bin 下面会生成几个工具主要包括以下几个 masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移自动或者 手动
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop 关闭manager 2.3.5在所有服务器上配置无密码认证 1在 manager 节点上配置到所有数据库节点的无密码认证 ssh-keygen -t rsa #一路按回车键生成密钥。-t rsa指定密钥的类型。
ssh-copy-id 192.168.246.7 #将公钥传给所有数据库节点形成免密码连接登录
ssh-copy-id 192.168.246.8
ssh-copy-id 192.168.246.10 2在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证 [rootmaster mha4mysql-node-0.57]#ssh-keygen -t rsa
[rootmaster mha4mysql-node-0.57]#ssh-copy-id 192.168.246.10
[rootmaster mha4mysql-node-0.57]#ssh-copy-id 192.168.246.11 3在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证 [rootslave1 mha4mysql-node-0.57]#ssh-keygen -t rsa
[rootslave1 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.7
[rootslave1 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.11 4在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证 [rootslave2 mha4mysql-node-0.57]#ssh-keygen -t rsa
[rootslave2 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.7
[rootslave2 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.10
2.3.6在 manager 节点上配置 MHA
1在 manager 节点上复制相关脚本到/usr/local/bin 目录
在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/
------------------------------------------------------ master_ip_failover #自动切换时 VIP 的管理脚本master_ip_online_change #在线切换时 VIP 的管理脚本power_manager #故障发生后关闭主机的脚本send_report #因故障切换后发送报警的脚本 [rootmanager mha4mysql-manager-0.57]#cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin/
2复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录这里使用master_ip_failover脚本来管理 VIP 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin/ 3修改内容如下删除原有内容直接复制并修改vip相关参数
修改/usr/local/bin/master_ip_failover 脚本删除原有内容所有内容全都重新添加 进入之后要先输入:set paste 然后才可以粘贴不然顺序会乱可以去掉#号键 #修改内容如下 删除原有内容直接复制并修改vip相关参数 可在拷贝前输入 :set paste 解决vim粘贴乱序问题 修改/usr/local/bin/master_ip_failover 脚本删除原有内容所有内容全都重新添加 #!/usr/bin/env perl
use strict;
use warnings FATAL all;use Getopt::Long;my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip 192.168.246.100; #指定vip的地址
my $brdc 192.168.246.255; #指定vip的广播地址
my $ifdev ens33; #指定vip绑定的网卡
my $key 1; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip /sbin/ifconfig ens33:$key $vip; #代表此变量值为ifconfig ens33:1 192.168.10.100
my $ssh_stop_vip /sbin/ifconfig ens33:$key down; #代表此变量值为ifconfig ens33:1 192.168.10.100 down
my $exit_code 0; #指定退出状态码为0
#my $ssh_start_vip /usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -
q -A -c 1 -I $ifdev $vip;iptables -F;;
#my $ssh_stop_vip /usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key;
##################################################################################
GetOptions(
commands \$command,
ssh_users \$ssh_user,
orig_master_hosts \$orig_master_host,
orig_master_ips \$orig_master_ip,
orig_master_porti \$orig_master_port,
new_master_hosts \$new_master_host,
new_master_ips \$new_master_ip,
new_master_porti \$new_master_port,
);exit main();sub main {print \n\nIN SCRIPT TEST$ssh_stop_vip$ssh_start_vip\n\n;if ( $command eq stop || $command eq stopssh ) {my $exit_code 1;
eval {
print Disabling the VIP on old master: $orig_master_host \n;
stop_vip();
$exit_code 0;
};
if ($) {
warn Got Error: $\n;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq start ) {my $exit_code 10;
eval {
print Enabling the VIP - $vip on the new master - $new_master_host \n;
start_vip();
$exit_code 0;
};
if ($) {
warn $;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq status ) {
print Checking the Status of the script.. OK \n;
exit 0;
}
else {
usage();
exit 1;
}
}
sub start_vip() {
ssh $ssh_user\$new_master_host \ $ssh_start_vip \;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
ssh $ssh_user\$orig_master_host \ $ssh_stop_vip \;
}sub usage {
print
Usage: master_ip_failover --commandstart|stop|stopssh|status --orig_master_hosthost --orig_master_ipip --
orig_master_portport --new_master_hosthost --new_master_ipip --new_master_portport\n;
}
4创建 MHA 软件目录并拷贝配置文件这里使用app1.cnf配置文件来管理 mysql 节点服务器
[rootmanager mha4mysql-manager-0.57]#mkdir /etc/masterha
[rootmanager mha4mysql-manager-0.57]#cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
[rootmanager mha4mysql-manager-0.57]#vim /etc/masterha/app1.cnf #删除原有内容直接复制并修改节点服务器的IP地址
vim /etc/masterha/app1.cnf #删除原有文件重新编辑[server default]
manager_log/var/log/masterha/app1/manager.log #manager日志
manager_workdir/var/log/masterha/app1 #manager工作目录
master_binlog_dir/usr/local/mysql/data #master保存binlog的位置这里的路径要与master里配置的binlog的路径一致以便MHA能找到
master_ip_failover_script/usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本也就是上面的那个脚本
master_ip_online_change_script/usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
passwordabc123 #设置mysql用户的密码这个密码是前文中创建监控用户的那个密码
usermy #设置mysql用户,这个用户是前文中创建监控用户的用户
ping_interval1 #设置监控主库发送ping包的时间间隔默认是3秒尝试三次没有回应的时候自动进行failover
remote_workdir/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password123123 #主从复制时设置的密码
repl_usermyslave #主从复制时设置的用户
secondary_check_script/usr/local/bin/masterha_secondary_check -s 192.168.246.10 -s 192.168.246.11 #指定检查的从服务器IP地址
shutdown_script #设置故障发生后关闭故障主机脚本该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用
ssh_userroot #设置ssh的登录用户名[server1]
hostname192.168.246.7
port3306[server2]
candidate_master1
#设置为候选master设置该参数以后发生主从切换以后将会将此从库提升为主库即使这个从库不是集群中最新的slavecheck_repl_delay0
#默认情况下如果一个slave落后master 超过100M的relay logs的话MHA将不会选择该slave作为一个新的master 因为对于这个slave的恢复需要花费很长时间通过设置check_repl_delay0MHA触发切换在选择一个新的master的时候将会忽略复制延时这个参数对于设置了candidate_master1的主机非常有用因为这个候选主在切换的过程中一定是新的master
hostname192.168.246.10
port3306[server3]
hostname192.168.246.11
port3306 [server default]
manager_log/var/log/masterha/app1/manager.log
manager_workdir/var/log/masterha/app1
master_binlog_dir/usr/local/mysql/data
master_ip_failover_script/usr/local/bin/master_ip_failover
master_ip_online_change_script/usr/local/bin/master_ip_online_change
passwordmanager
ping_interval1
remote_workdir/tmp
repl_password123123
repl_usermyslave
secondary_check_script/usr/local/bin/masterha_secondary_check -s 192.168.246.10 -s 192.168.246.11
shutdown_script
ssh_userroot
usermha[server1]
hostname192.168.246.7
port3306[server2]
candidate_master1
check_repl_delay0
hostname192.168.246.10
port3306[server3]
hostname192.168.246.11
port3306
2.3.7第一次配置需要在 Master 节点上手动开启虚拟IP地址
[rootmaster opt]#/sbin/ifconfig ens33:1 192.168.246.100/24
#注意与配置文件对应
参见上文
[rootmaster opt]#/sbin/ifconfig ens33:1 192.168.246.100/24 2.3.8在 manager 节点上测试 ssh 无密码认证
在 manager 节点上测试 ssh 无密码认证如果正常最后会输出 successfully如下所示。
masterha_check_ssh -conf/etc/masterha/app1.cnf 2.3.9在 manager 节点上测试 mysql 主从连接情况
在 manager 节点上测试 mysql 主从连接情况最后出现MySQL Replication Health is OK 字样说明正常。如下所示。
输入它查看情况
[rootmanager mha4mysql-manager-0.57]#masterha_check_repl -conf/etc/masterha/app1.cnf 如果这里是is not ok 就把所有主从服务器里面这一行default-character-setutf8都注释了然后重启mysql服务然后再去manager服务器上面输入masterha_check_repl -conf/etc/masterha/app1.cnf 测试 mysql 主从连接情况最后出现 MySQL Replication Health is OK 字样说明正常 2.3.10在 manager 节点上启动 MHA
nohup masterha_manager --conf/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover /dev/null /var/log/masterha/app1/manager.log 21 如果使用ps aux|grep manager出现如下情况 然后我们分别去master和slave1、slave2去修改修改/etc/my.cnf 然后再去manager服务器查看就好了 #生产中java 服务启动的方式 nohup java -jar 微服务名称- war jar --remove_dead_master_conf #该参数代表当发生主从切换后老的主库的 ip 将会从配置文件中移除。
--manger_log #日志存放位置。
--ignore_last_failover #在缺省情况下如果 MHA 检测到连续发生宕机且两次宕机间隔不足 8 小时的话则不会进行 Failover 之所以这样限制是为了避免 ping-pong 效应来回切换导致脑裂。该参数代表忽略上次 MHA 触发切换产生的文件默认情况下MHA 发生切换后会在 app1.failover.complete 日志文件中记录下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换 除非在第一次切换后删除该文件为了方便这里设置为--ignore_last_failover。●使用后台运行程序结果会输出到终端使用CtrlC发送SIGINT信号程序免疫关闭session发送SIGHUP信号程序关闭。●使用nohup运行程序结果默认会输出到nohup.out使用CtrlC发送SIGINT信号程序关闭关闭session发送SIGHUP信号程序免疫。●使用nohup和配合来启动程序 nohup ./test 同时免疫SIGINT和SIGHUP信号。
2.3.11在 manager 节点上查看 MHA 状态 和 MHA 日志可以看到 master的地址
masterha_check_status --conf/etc/masterha/app1.cnf#查看 MHA 状态可以看到当前的 master 是 master 节点。。
cat /var/log/masterha/app1/manager.log | grep current master#查看 MHA 日志也以看到当前的 master 是 192.168.246.7如下所示。 2.3.12查看master 的 VIP 地址 192.168.10.200 是否存在
这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
ifconfig//若要关闭 manager 服务可以使用如下命令。
masterha_stop --conf/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭。 2.4故障模拟 #在 manager 节点上监控观察日志记录 tail -f /var/log/masterha/app1/manager.log #在 Master 节点 master 上停止mysql服务 再去manager服务器上的日志查看 查看 slave1 是否接管 VIP使用ifconfig #正常自动切换一次后MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容将宕机的 master 节点删除。查看 slave1 是否接管 VIP 查看manager节点的配置文件 MHA 会自动修改 app1.cnf 文件内容将宕机的 mysql1 节点删除。 2.5故障修复 2.5.1修复原来的master即修复原来的主节点 2.5.2修复主从 在新的主库服务器 slave1 中查看二进制日志文件和同步点 show master status; 在原主库服务器 master执行同步操作同步现在主库中的数据
#在原主库服务器master 执行同步操作
change master to master_host192.168.246.10,master_usermyslave,master_password123123,master_log_filemaster-bin.000001,master_log_pos3031;start slave;
2.5.3在 manager 节点上修改配置文件app1.cnf
重新把三台mysql节点服务器这个记录添加进去因为它检测到主节点失效时候会自动删除主节点。
将slave1添加为新的候选master [server default]
..........
ping_interval1
remote_workdir/tmp
repl_password123123
repl_usermyslave
secondary_check_script/usr/local/bin/masterha_secondary_check -s 192.168.246.11 -s 192.168.246.7
shutdown_script
ssh_userroot
usermha[server1]
hostname192.168.246.10
port3306[server2]
candidate_master1
check_repl_delay0
hostname192.168.246.7
port3306[server3]
hostname192.168.246.11
port3306
2.5.4在 manager 节点上启动 MHA nohup masterha_manager --conf/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover /dev/null /var/log/masterha/app1/manager.log 21 #解决中英字不兼容报错的问题 dos2unix /usr/local/bin/master_ip_failover 总结1、mha ① 作用mysql的高可用 故障切换② 核心部分 MHA组件manager主要的功能做MHA 启动、关闭管理和检测mysql各种健康状态 node在发生故障时尽可能的保存二进制日志并且实现故障切换VIP地址飘逸③ MHA需要配置的文件2个: master ip failover:命令工具 定义的是基于VIP的检测和故障转移 VIP从master-----新的 master app1.conf:mha的主要配置文件主要定义了mha的工作目录、日志 mysal二进制日志位置 使用mha的登录mysql的用户、密码使用从服务器 身份同步master的账号、密码 五个 ④ 故障切换mha会做哪些动作 1mha会多次尝试检测master的存活状态 2mhah会多次尝试、尽可能的保存master的二进制日志 3mha会根据app1.cnf中的配置部分进行从服务器------》 主服务器的位置 4mha最后会将master的VIP地址切换到从服务器的位置 5mha再选择完行的master周会在其余的salve上执行change master操作指向性的master, 来保证Mysql的集群的健康性 2、mha故障问题 ① 软件连接 ② 免交互 ③ 五个账号授权其中三个账号是测试环境需要做的 ④ 初次运行MHA功能是需要临时添加虚拟IP ⑤ 配置文件--效验 master_ip_failover 1个故障切换的脚本app1.cnf mha的主配置文件 ⑥ 先安装node节点 再安装主节点 3、故障切换备选主库的算法 1一般判断从库的是从position/GTID判断优劣数据有差异最接近于master的slave成为备选主。 2数据一致的情况下按照配置文件顺序选择备选主库。 3设定有权重candidate_master1按照权重强制指定备选主。 1默认情况下如果一个slave落后master 100M的relay logs的话即使有权重也会失效。 2如果check_repl_delay0的话即使落后很多日志也强制选择其为备选主。