MySQL MHA高可用集群部署及故障切换
source link: https://blog.51cto.com/u_15437488/5239336
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
MySQL MHA高可用集群部署及故障切换
推荐 原创一、MHA概念
MHA (MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
MHA的出现就是解决MySQL单点的问题。
MySQL故障切换过程中,MHA能做到o-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。
1、MHA的组成
(一)、MHA Node(数据节点)
MHA Node运行在每台MySQL服务器上。
(二)、MHA Manager(管理节点)
MHA Manager可以单独部署在一台独立的机器上,管理多个master-slave 集群;也可以部署在一台slave节点上。
MHA Manager 会定时探测集群中的 master节点。当master出现故障时,它可以自动将最新数据的slave提升为新的 master,然后将所有其他的slave 重新指向新的master。整个故障转移过程对应用程序完全透明。
2、MHA的特点
①、自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
②、使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
③、目前MHA支持一主多从架构,最少三台服务,即一主两从
二、搭建MySQL+MHA
1、MHA架构
数据库安装
MHA搭建
2、故障模拟
模拟主库失效
备选主库成为主库
原故障主库恢复重新加入到MHA成为从库
实验环境、安装包
1、所有服务器,关闭系统防火墙和安全机制
systemctl disable firewalld
setenforce 0
2、修改master (192.168.184.20). Slave1 (192.168.184.30) .Slave2(192.168.184.40)节点的主机名
su -
hostnamectl set-hostname mysql2
su -
hostnamectl set-hostname mysql3
su -
3、修改三台MySQL服务器的主配置文件letc/my.cnf
master: mysql1(192.168.184.20)
[mysqld]
server-id = 20
log_bin = master-bin
log-slave-updates = true
systemctl restart mysqld
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
slave: mysql2(192.168.184.30)、mysql3(192.168.184.40)
server-id = 30
#server-id = 40 mysql3则为40,三台服务器 server-id 不能一样
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
4、配置MySQL一主两从
所有MySQL服务器进行MySQL授权
mysql -e "grant all privileges on *.* to 'mha'@'192.168.184.%' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager';"
在Master节点查看二进制文件和同步点
例:每个人的二进制文件名或者偏移量都可能不一样,记住自己的
+-------------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+-------------------+----------+--------------+------------------+-------------------+
| master-bin.000001 | 4193 | | | |
+-------------------+----------+--------------+------------------+-------------------+
在Slave1、Slave2节点执行同步操作
mysql -e "start slave;"
mysql -e "show slave status\G" | awk '/Running:/{print}'
Slave1、Slave2节点设置为只读模式
5、主从复制验证
在Master创建库
slave查询库验证
主从复制搭建完成
6、安装MHA软件
1、所有服务器上都安装MHA依赖的环境,首先安装epel源,需要在线源安装
再在所有服务器上安装node组件
yum list
yum install epel-release --nogpgcheck -y
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
将软件包mha4mysql-node-0.57.tar.gz放入/opt目录下
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。
在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
2、在 MHA manager节点上安装manager组件
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
#manager组件安装后在/usrlocal/bin下面会生成几个工具,主要包括以下几个:
#node组件安装后也会在/usrlocalbin下面会生成几个脚本(这些工具通常由MHAManager的脚本触发,无需人为操作)主要如下:
7、在所有服务器上配置无密码认证
1、在manager (192.168.184.10)节点上配置到所有【数据库节点】的无密码认证
ssh-copy-id 192.168.184.20
ssh-copy-id 192.168.184.30
ssh-copy-id 192.168.184.40
2、在mysql1 (192.168.184.20)上配置到数据库节点mysql2 (192.168.184.30)和mysql3(192.168.184.40)的无密码认证
ssh-copy-id 192.168.184.30
ssh-copy-id 192.168.184.40
3、在mysql2 (192.168.184.30)上配置到数据库节点mysql1 (192.168.184.20)和mysql3 (192.168.184.40)的无密码认证
ssh-copy-id 192.168.184.20
ssh-copy-id 192.168.184.40
4、在mysql3(192.168.184.40)上配置到数据库节点mysql1 (192.168.184.20)和mysql2(192.168.184.30)的无密码认证
ssh-copy-id 192.168.184.20
ssh-copy-id 192.168.184.30
8、在manager节点上配置MHA
1、在manager节点上复制相关脚本到/usr/local/bin目录
#复制后会有四个执行文件
ll /usr/local/bin/scripts/
2、复制上述的自动切换时VIlP管理的脚本到/usr/localbin目录,这里使用master_ip_failover脚本来管理VIP和故障切换
3、修改内容如下:(删除原有内容,直接复制并修改vip相关参数,vip自定义)
vim /usr/local/bin/master_ip_failover
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.184.200'; #指定vip的地址
my $brdc = '192.168.184.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.184.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.184.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
4、创建MHA软件目录并复制配置文件,使用app1.cnf配置文件来管理mysql节点服务器,配置文件一般放在/etc,目录下
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
#删除原有内容,直接复制并修改节点服务器的IP地址
vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123123
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.184.30 -s 192.168.184.40
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.184.20
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.184.30
port=3306
[server3]
hostname=192.168.184.40
port=3306
manager_log=/var/log/masterha/app1/manager.log #manager日志
manager_workdir=/var/log/masterha/app1.log #manager工作目录
master_binlog_dir=/usr/local/mysql/data/ #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
password=manager #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
ping_interval=1 #设置监控主库,发送ping包的时间间隔1秒,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password=123123 #设置复制用户的密码
repl_user=myslave #设置复制用户的用户
report_script=/usr/local/send_report #设置发生切换后发送的报警的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.184.30 -s 192.168.184.40 #指定检查的从服务器IP地址
shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root #设置ssh的登录用户名
user=mha #设置监控用户root
[server1]
hostname=192.168.184.20
port=3306
[server2]
hostname=192.168.184.30
port=3306
candidate_master=1
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中最新的slave
check_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
[server3]
hostname=192.168.184.40
port=3306
在Master服务器上手动开启vip
5、在manager节点上测试 ssh无密码认证,如果正常最后会输出 successfully。
6、在manager节点上测试, mysql主从连接情况,最后出现MySQL Replication Health is OK字样说明正常。
7、在manager节点上启动MHA
查看MHA状态,可以看到当前的master是 Mysql1节点。
查看MHA日志,也以看到当前的 master是192.168.184.20,如下所示。
查看Mysql1的VIP地址192.168.184.200是否存在,这个VIP地址不会因为manager节点停止MHA服务而消失。
若要关闭manager服务,可以使用如下命令。
或者可以直接采用 kill 进程 ID 的方式关闭
9、故障模拟
在manager节点上监控观察日志记录
在Master节点Mysql1上停止mysql服务
正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。
查看mysql2是否接管VIP
查看manager节点动态日志
故障切换备选主库的算法:
1、一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2、数据─致的情况下,按照配置文件顺序,选择备选主库。
3、设定有权重(candidate_master=1),按照权重强制指定备选主。
默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
1、修复master
2、修复主从
在现主库服务器Mysql2(192.168.184.30)查看二进制文件和同步点
在原主库服务器mysql1(192.168.184.20)执行同步操作
mysql -e "start slave;"
mysql -e "show slave status\G" | awk '/Running:/{print}'
3、在manager节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
……
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.184.20 -s 192.168.184.40
......
[server1]
hostname=192.168.184.30
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.184.20
port=3306
[server3]
hostname=192.168.184.40
port=3306
4、在manager节点上启动MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
masterha_check_status --conf=/etc/masterha/app1.cnf
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK