ホームページ >データベース >mysql チュートリアル >MySQL データベースをベースに、MySQL の高可用性運用と保守について説明します。

MySQL データベースをベースに、MySQL の高可用性運用と保守について説明します。

php是最好的语言
php是最好的语言オリジナル
2018-07-25 15:52:281907ブラウズ

この記事では、MySQL の別の高可用性実装ソリューション、つまり MHA (マスター) を紹介します。 高可用性)。マスター H.A.これは、MySQL のマスター/スレーブ アーキテクチャに自動障害回復機能を提供するオープンソースの高可用性プログラムです。

1. 基礎知識の紹介

1. MHA の定義

マスター HA。これは、MySQL のマスター/スレーブ アーキテクチャに自動障害回復機能を提供するオープンソースの高可用性プログラムです。マスター/スレーブ レプリケーション中に、MHA が MySQL マスター ノードの障害を検出すると、レプリケーション クラスター内のスレーブ ノードが自動的に昇格され、新しいマスター ノードになります。他のノードから追加情報を取得することで、スイッチオーバー中にデータの一貫性の問題も回避されます。さらに、MHA はマスター ノードのオンライン フェイルオーバー機能も提供し、必要に応じてマスター/スレーブ ノードを切り替えることができます。

2. MHA の構造

MHA のすべてのノードには、主に管理ノードとデータ ノードの 2 つの役割があります。
管理ノード (MHA マネージャー): 通常は 1 台のマシンにデプロイされ、複数のマスター クラスターとスレーブ クラスターを管理するために使用され、マスターとスレーブで構成される各クラスターはアプリケーションと呼ばれます。
データ ノード (MHA ノード): 各 MySQL サーバー上で実行され、ログの解析とクリーニングの機能を備えたスクリプトを監視することでノードのフェイルオーバーを高速化します。

3.HMAコンポーネント
(1)マネージャーコンポーネント

masterha_check_sh:MHA依赖的ssh环境监测工具
masterha_check_repl:MySQL复制环境监测工具
masterha_manager:MHA服务主程序
masterha_check_status:MHA运行状态探测工具
masterha_master_monitor:MySQL master节点可用性监测工具
masterha_master_switch:master节点切换工具
masterha_conf_host:添加或删除配置的节点
masterha_stop:关闭MHA服务的工具

(2)ノードコンポーネント

save_binary_logs:保存和赋值master的二进制日志
apply_diff_relay_logs:识别差异的中继日志并应用于其他slave
filter_mysqlbinlog:去除不必要的ROLLBACK事件(MHA已经不再使用这个工具)
purge_relay_logs:清除中继日志(不会阻塞SQL线程)

2.MHA構築

1.OS:CentOS6.9_X86_64

バージョン: MySQL5.6.39 ユニバーサルバイナリ

サーバープラン:
マスターノード マスター: 192.168.199.104 (mysql-master、master)

スレーブノード 1: 192.168.199.105 (mysql-slave01、slave01)
スレーブノード 2: 192 168.199.106 (mysql-slave02,slave02)

管理ノード: 192.168.199.107(mysql-manager,manager)



(1) 各ノードのホストを設定するので、後から書く必要がなく便利です。 IP

secondary_check_script:通过多条网络路由监测master的可用性
master_ip_failover_script:更新application使用的masterip
shutdown_script:强制关闭master节点
report_script:发送报告
init_conf_load_script:加载初始配置参数
master_ip_online_change_script:更新master节点ip地址

(2) 設定したホストファイルを他の3つのノードにコピーします

[root@mysql-master ~]# vim /etc/hosts
#添加如下内容:
127.0.0.1  localhost localhost.localdomain localhost4 localhost4.localdomain4
::1        localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.199.104 mysql-master master
192.168.199.105 mysql-slave01 slave01
192.168.199.106 mysql-slave02 slave02
192.168.199.107 mysql-manager manager

(3) マスターとスレーブの同期を設定します。slave01とslave02はマスターのスレーブライブラリです

マスターのバイナリログを有効にします

[root@mysql-master ~]# scp /etc/hosts slave01:/etc/
[root@mysql-master ~]# scp /etc/hosts slave02:/etc/
[root@mysql-master ~]# scp /etc/hosts manager:/etc/

マスター内 現在のバイナリログポイントの場所を表示し、レプリケーションアカウントを作成します

[root@mysql-master ~]# vim /etc/my.cnf
#在[mysqld]下面添加如下内容:
server-id = 104
skip-name-resolve
log_bin=/mysql_data/mysql-bin
log_bin_index=/mysql_data/mysql-bin.index
binlog_format = mixed

slave01でバイナリログとリレーログを有効にし、マスターのスレーブライブラリとして設定します

[root@mysql-master ~]# mysql -uroot –proot
#查看当前二进制日志点的位置
mysql> SHOW MASTER STATUS \G
*************************** 1. row ***************************
             File: mysql-bin.000090
         Position: 120
     Binlog_Do_DB: 
 Binlog_Ignore_DB: 
Executed_Gtid_Set: 
1 row in set (0.00 sec)
#创建从库的复制账户
mysql> GRANT REPLICATION SLAVE ,REPLICATION CLIENT ON *.* TO 'repl'@'192.168.199.%' IDENTIFIED BY 'repl';
#刷新权限
mysql> FLUSH PRIVILEGES;

パラメータの説明:

[root@mysql-slave01 ~]# vim /etc/my.cnf
#在[mysqld]下添加如下内容:
server-id = 105
log_bin = /mysql_data/mysql-bin
log_bin_index = /mysql_data/mysql-bin.index
relay_log = /mysql_data/mysql-relay
relay_log_index = /mysql_data/mysql-relay.index
read_only
relay_log_purge = 0

同期されたマスター ノードの情報は、マスター ノードを指します。

relay_log_purge:该参数表示不自动清理中继日志,因为MHA需要根据slave的中继日志判断slave同步master的binlog到什么位置了
read_only:表示是只读,MHA需要根据这个参数来识别主从库
bin_log:开启从库的二进制日志,因为在主节点出现故障时,需要将其中某个从库提升为主库,所以需要开启从库的二进制日志

同じ方法で 2 番目のスレーブ ライブラリを設定します。slave01 の設定ファイルを 2 番目のスレーブに直接コピーして、変更することができます。

[root@mysql-slave01 ~]# service mysqld restart
[root@mysql-slave01 ~]# mysql -uroot –proot
#使用change master命令将主库指向master节点
mysql> CHANGE MASTER TO MASTER_HOST = '192.168.199.104',MASTER_PORT=3306,MASTER_USER='repl',MASTER_PASSWORD='repl',MASTER_LOG_FILE='mysql-bin.000090',MASTER_LOG_POS=120;
mysql> START SLAVE;
#查看是否同步成功
mysql> SHOW SLAVE STATUS \G
看到如下信息表示同步成功:
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

変更が完了したら、保存して終了し、mysqlを再起動して、slave02をマスターのスレーブライブラリとして設定します

[root@mysql-slave01 ~]# scp /etc/my.cnf slave02:/etc/
[root@mysql-slave02 ~]# vim /etc/my.cnf
#修改server-id即可:
server-id = 106

(4) 管理者権限を持つユーザーアカウントを作成します

[root@mysql-slave02 ~]# mysql -uroot –proot
mysql> CHANGE MASTER TO MASTER_HOST = '192.168.199.104',MASTER_PORT=3306,MASTER_USER='repl',MASTER_PASSWORD='repl',MASTER_LOG_FILE='mysql-bin.000090',MASTER_LOG_POS=120;
mysql> START SLAVE;
#查看是否同步成功
mysql> SHOW SLAVE STATUS \G
看到如下信息表示同步成功:
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

(5) MHAアーキテクチャ以降相互信頼通信を行うには、各ノードが秘密鍵なしでログインできるように設定する必要があるため、ノードごとに秘密鍵ペアを生成してコピーする必要があります。マスターノードにアクセスし、各ホストに同じ秘密鍵を持たせます。 Key

#在主节点master上创建管理账号,使其可以同步到其他连个从节点,注意:这个管理账号需要能够远程连接MySQL
mysql> GRANT ALL ON *.* TO 'mha'@'192.168.199.%' IDENTIFIED BY 'mha';
mysql> FLUSH PRIVILEGES;

秘密鍵ペアと秘密鍵ファイルを他の 3 つのノードにコピーします。 注: 元の権限を確認してください

#在master上生成秘钥对
[root@mysql-master ~]# ssh-keygen -t rsa -P ''
#首先保存到本机的秘钥文件中,使得本机可以无秘钥使用ssh方式登陆本机
[root@mysql-master ~]# cat .ssh/id_rsa.pub >> .ssh/authorized_keys
#使用ssh登陆本机测试,发现可以无密码登陆
[root@mysql-master ~]# ssh 192.168.199.104
#修改authorized_keys文件的权限,只能属主查看,同组用户和其他用户不可查看
[root@mysql-master ~]# chmod go= .ssh/authorized_keys

(6) mha4mysql- をダウンロードします。 Manager と mha4mysql-node のインストール パッケージ

ここで使用するソフトウェア パッケージのバージョンは次のとおりです:

[root@mysql-master ~]# scp -p .ssh/id_rsa .ssh/authorized_keys slave01:/root/.ssh/
[root@mysql-master ~]# scp -p .ssh/id_rsa .ssh/authorized_keys slave02:/root/.ssh/
[root@mysql-master ~]# scp -p .ssh/id_rsa .ssh/authorized_keys manager:/root/.ssh/
#测试无密码登陆,在主节点上执行如下命令,查看slave01节点的ip地址
[root@mysql-master ~]# ssh slave01 'ifconfig eth0'
#能够查看到slave01的ip地址表示无秘钥登陆配置成功,其他俩节点可以自己验证

(7) epel を設定します。一部の mha4mysql パッケージは Base から来ており、一部のパッケージは epel から来ているためです

管理节点:mha4mysql-manager-0.56.tar.gz
数据节点:mha4mysql-node-0.56.tar.gz

(8) 解凍して使用しますMakefile.PL スクリプトを実行する Perl コマンド

[root@mysql-master ~]# rpm –ivh  http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

注: Makefile.PL の実行中に、次のようなエラーが発生した場合は、Perl プログラムが依存するライブラリ ファイルをインストールする必要があります:

[root@mysql-master ~]# tar xf mha4mysql-manager-0.56.tar.gz
[root@mysql-master ~]# cd mha4mysql-manager-0.56
[root@mysql-master mha4mysql-manager-0.56]# perl Makefile.PL

上記のエラーが発生した場合は、依存関係をインストールする必要があります:

Can't locate ExtUtils/MakeMaker.pm in @INC (@INC contains: inc /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5 .) at inc/Module/Install/Makefile.pm line 4.
BEGIN failed--compilation aborted at inc/Module/Install/Makefile.pm line 4

(9) 「perl MakeFile.PL」が正しく実行されていることを確認した後、make コマンドを使用してインストールを完了します。注: 「echo $?」を使用してこのコマンドの実行結果を表示し、前のコマンドが正しく実行されたかどうかを確認できます。通常、0 は正しく完了したことを意味します。

[root@mysql-master ~]# yum install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker cpan perl-Time-HiRes perl-DBI perl-DBD-MySQL
(10) マスターへのマネージャーのインストールが完了したら、同様にmha4mysql-node

[root@mysql-master mha4mysql-manager-0.56]# make
[root@mysql-master mha4mysql-manager-0.56]# make install

をコンパイルしてインストールします

[root@mysql-manager ~]# tar xf mha4mysql-node-0.56.tar.gz
[root@mysql-manager ~]# cd mha4mysql-node-0.56
[root@mysql-manager mha4mysql-node-0.56]# perl Makefile.PL
#判断Makefile.PL是否正常执行完成
[root@mysql-manager mha4mysql-node-0.56]# echo $?
0
[root@mysql-manager mha4mysql-node-0.56]# make && make install

(11) 他の3つのサーバー(マスター、スレーブ01、スレーブ02)にmha4mysql-node

[root@mysql-slave01 ~]# tar mha4mysql-node-0.56.tar.gz
[root@mysql-slave01 ~]# cd mha4mysql-node-0.56
[root@mysql-slave01 mha4mysql-node-0.56]# perl Makefile.PL
[root@mysql-slave01 mha4mysql-node-0.56]# make && make install

をインストールします) 他の 2 つのノードも同様にインストールされますが、ここでは省略します。

(12) インストールが完了すると、/usr/local/bin に mha4mysql によって生成されたスクリプトファイルがいくつかあることがわかります。

(13) MHA を初期化します

そこにある mha の設定ファイルを編集します

グローバル構成: 各アプリケーションのデフォルト構成を提供します
アプリケーション構成: どのサーバーを指定するために使用します

#创建目录并编辑配置文件
[root@mysql-manager ~]# mkdir -pv /etc/masterha/
[root@mysql-manager ~]# vim /etc/masterha/app01.conf

次の内容を記述します:

[server default]
user=mha  #管理用户的用户名
password=mha  #管理用户密码
manager_workdir=/data/masterha/app01  #manager节点的工作目录,用来存放一些二进制日志,不存在会自动创建
manager_log=/data/masterha/app01/manager.log #日志文件位置
remote_workdir=/data/masterha/app01  #远程的每一个节点的工作目录,没有会自动生成
ssh_user=root  #需要使用ssh来完成一些管理操作
repl_user=repl  #拥有复制权限的用户名
repl_password=repl  #拥有复制权限的密码
ping_interval=1  #每隔多长时间监测一次主节点是否在线,心跳信息监测
#其他主机
[server1]
hostname=192.168.199.104
#ssh_port=3306  #如果MySQL没有使用默认端口号,则此处需要指定,使用默认端口不需要指定
candidate_master=1  #表示该节点是否在主节点故障之后参与成为主节点
master_binlog_dir=/mysql_data/ #指定mysql的binlog日志路径
[server2]
hostname=192.168.199.105
candidate_master=1
master_binlog_dir=/mysql_data/
[server3]
hostname=192.168.199.106
#no_master=1  #表示主节点故障之后,该节点不参与成为主节点
master_binlog_dir=/mysql_data/

(14) 各ノード間の通信が正常かどうかを確認します

[root@mysql-manager ~]# masterha_check_ssh --conf=/etc/masterha/app01.conf

エラー 1:

@INC で Config/Tiny.pm が見つかりません (@INC には次の内容が含まれています: これには付属しており、インターネットからダウンロードする必要があります。必要な rpm パッケージは http://rpmfind からダウンロードできます) .net/. 以下の rpm パッケージは CentOS6.9 X86_64 用です:

perl-Mail-Sender-0.8.16-3.el6.noarch.rpm 
perl-Log-Dispatch-2.26-1.el6.rf.noarch.rpm 
perl-Parallel-ForkManager-0.7.9-1.el6.noarch.rpm
perl-Config-Tiny-2.12-7.1.el6.noarch.rpm

他のパッケージに依存する可能性があるため、そのまま yum コマンドを使用してインストールします。


错误2:master_check_ssh执行中的错误:
Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
原因:/root/.ssh/下的文件内容不一样或者文件的权限有问题,我遇到的是文件内容有问题。
解决办法:重新将其他主机上的秘钥对和私钥拷贝一份就正常了。


(15)检查主从复制环境是否正常

[root@mysql-manager ~]# masterha_check_repl --conf=/etc/masterha/app01.conf

错误1:

Sat Jun  2 03:07:26 2018 - [error][/usr/local/share/perl5/MHA/ServerManager.pm, ln301] install_driver(mysql) failed: Can't locate DBD/mysql.pm in @INC (@INC contains: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5 .) at (eval 27) line 3.
Perhaps the DBD::mysql perl module hasn't been fully installed,
or perhaps the capitalisation of 'mysql' isn't right.

原因:缺少perl-DBD-MySQL依赖库
解决办法:

[root@mysql-manager ~]# yum install -y perl-DBD-MySQL*

错误2:

Sat Jun  2 03:11:06 2018 - [error][/usr/local/share/perl5/MHA/ServerManager.pm, ln188] There is no alive server. We can't do failover

错误3:

Failed to save binary log: Binlog not found from /var/lib/mysql,/var/log/mysql! If you got this error at MHA Manager, please set "master_binlog_dir=/path/to/binlog_directory_of_the_master

原因:mysql的binlog日志目录没有在默认的/var/log/mysql下,而是在其他地方,导致目录找不到。
解决办法:在manager节点的配置文件中每个节点下制定二进制日志的目录路径。

[server1]
hostname=192.168.199.105
candidate_master=1
master_binlog_dir=/mysql_data/  #指定二进制日志文件目录

错误4:

Can't exec "mysqlbinlog": No such file or directory at /usr/local/share/perl5/MHA/BinlogManager.pm line 106.
mysqlbinlog version command failed with rc 1:0, please verify PATH, LD_LIBRARY_PATH, and client options

原因:使用ssh连接之后找不到mysqlbinlog命令
解决办法:将/usr/local/mysql-5.6.39/目录连接到/usr/bin下

[root@mysql-master ~]# ln –s /usr/local/mysql-5.6.39/bin /usr/bin
[root@mysql-slave01 ~]# ln –s /usr/local/mysql-5.6.39/bin /usr/bin
[root@mysql-slave02 ~]# ln –s /usr/local/mysql-5.6.39/bin /usr/bin

(16)启动MHA

#前台启动,日志会直接打印在控制台上
[root@mysql-manager app01]# masterha_manager --conf=/etc/masterha/app01.conf
#后台启动
[root@mysql-manager app01]# nohup masterha_manager --conf=/etc/masterha/app01.conf &

(17)验证高可用故障自动转移

#停止master节点的mysqld服务
[root@mysql-master ~]# killall mysqld mysqld_safe

#查看原来的两个slave节点信息,发现已经有slave01被提升为master了
mysql> SHOW SLAVE STATUS \G
*************************** 1. row ***************************
               Slave_IO_State: Waiting for master to send event
                  Master_Host: 192.168.199.105
                  Master_User: repl
                  ...
#查看slave01的read_only属性,发现已经被修改为OFF了
mysql> SHOW VARIABLES LIKE 'read_only';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| read_only     | OFF   |
+---------------+-------+

注意:当某一个master故障之后,从库提升为主库,原来的manager节点上的manager服务会自动退出。需要手动重启。
(18)故障的服务器再次恢复时,需要使用”CHANGE MASTER”命令手动将其加入到从节点中
(19)manager节点启动之后,可以使用masterha_check_status命令查看当前的主节点状态信息

[root@mysql-manager ~]# masterha_check_status --conf=/etc/masterha/app01.conf 
    app01 (pid:20582) is running(0:PING_OK), master:192.168.199.105

MHA的其他用法,如在线主从切换等,可以自行参考官方文档,此处不再介绍。另外还有MHA的manager节点的自动重启功能,报警功能,故障主机彻底摘除功能等可以通过shell脚本实现,后面有时间会继续介绍。

至此,MySQL的MHA高可用基本功能搭建完成。整个过程中有无数的坑,可能读者在搭建过程中,还会遇到其他的深坑,最好能够硬着头皮一个一个去解决!篇幅较长,所有内容都是经过验证一个字一个字敲上去的,但也难免有笔误,如有错误,欢迎在下方评论指出!

相关推荐:

运维角度浅谈MySQL数据库优化

运维角度浅谈MySQL数据库优化(李振良)

以上がMySQL データベースをベースに、MySQL の高可用性運用と保守について説明します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。