1、概述
從本篇文章開始我們將向讀者介紹mysql的各種服務集群的搭建方式。大致的討論想法是從最簡的MySQL主從方案開始介紹,透過這種方案的不足延伸出更複雜的叢集方案,並介紹後者是如何針對這些不足進行改進的。
2、MySQL最簡單主從方案及工作原理
我們講解的版本還是依據目前在生產環境上使用最多的version 5.6進行,其中一些特性在Version 5.7和最新的Version 8.0中有所改進,但這不影響讀者透過文章去理解建構MySQL叢集的技術思路,甚至可以將此機制延續到MariaDB。例如馬上要提到的MySQL自帶的日誌複製機制(Replicaion機制)。
MySQL自帶的日誌複製機制稱為MySQL-Replicaion。從MySQL很早的 Version 5.1版本就有Replicaion技術,發展到現有版本該技術已經非常成熟,透過它的支援技術人員可以做出多種MySQL叢集結構。當然,後文我們也會介紹一些由第三方軟體/元件支援的MySQL叢集方案。
2-1、MySQL-Replicaion基本工作原理
Replicaion機制從技術層面講,存在兩種基本角色:Master和Salve。 Master節點負責在Replicaion機制中,向一個或多個目標輸出數據,而Salve節點負責在Replicaion機制中接受Master節點傳來的數據。在實際業務環境下,Master節點和Salve節點還分別有另一個名字:Write節點和Read節點——是的,利用Replicaion機制我們可以搭建以讀寫分離為目標的MySQL叢集服務。但為了確保讀者在閱讀文章內容時不會產生歧義,在本文(和後續文章)中我們都會使用Master節點和Salve節點這樣的稱呼。 Replicaion機制依靠MySQL服務的二進位日誌同步資料:
如上圖所示,Salve在啟動後會建立一個和Master節點的網路連接,當Master節點的二進位日誌發生變化後,一個或多個MySQLSQL Salve服務節點就會透過網路接監聽到這些變化日誌。接著Salve節點會先在本地將這些變化寫入中繼日誌檔案(Relay Log),這樣做是為了盡量避免MySQL服務在出現異常時同步資料失敗,其原理和先前介紹過的InnoDB Log的工作原理相似。當中繼日誌檔案發生完成記錄後,MySQL Salve服務會將這些變化反映到對應的資料表中,完成一次資料同步過程。最後Salve會更新重做日誌檔案中的更新點(Position),並準備下次Replicaion操作。
在這個過程中多個要素都可以進行配置,例如可以透過sync_binlog參數配置Master節點上資料操作次數和日誌寫入次數配比關係、可以透過binlog_format參數配置日誌資料的資訊結構、可以透過sync_relay_log參數設定Salve節點上系統接收日誌資料與寫入中繼日誌檔案次數的配比關係。這些參數和其它一些在範例中使用的參數會在本文後續小節中介紹。
2-2、MySQL一主多從搭建方式
介紹完MySQL Replicaion機制的基本工作方式後,我們緊接著就來快速搭建由一個Master節點和一個Salve節點構成的MySQL集群。讀者可以從這個一主一從的MySQL叢集方案擴展出任何一主多從的叢集方案:
這個實例我們使用Version 5.6版本進行設置,當然version 5.7版本的安裝也是類似的。另外,在linux 作業系統上(Centos 5.6/5.7/6.X)安裝MySQL服務和進行基本設定的過程,由於篇幅和文章定位原因這裡就不再進行贅述。我們將分別在如下ip的Linux操作安裝叢集的Master節點和Salve節點:
MySQL Master服務:192.168.61.140
MySQL Salve服務:192.168.61.141
-
首先需要更改MySQL Master服務my.cnf主設定檔的訊息,主要目的是開啟Master節點上的二進位日誌功能(注意這裡說的日誌並不是InnoDB引擎日誌)。# my.cnf文件中没有涉及Replicaion机制的配置信息, 就不在这里列出了 ...... # 开启日志 log_bin# 下列這些參數會在後文說明sync_binlog=1binlog_format=mixedbinlog-do-db=qiangbinlog_CRCygg未來32000m> ache_size=1Gmax_binlog_size =100M# 必須為這個MySQL服務節點設定一個叢集中唯一的server id資訊server_id=140......
在Master节点的设置中,有很多参数可以对日志的生成、存储、传输过程进行控制。具体可以参见MySQL官网中的介绍:http://dev.mysql.com/doc/refman/5.7/en/replication-options-binary-log.html。这里我们主要对以上配置示例中出现的参数进行概要介绍:
sync_binlog:该参数可以设置为1到N的任何值。该参数表示MySQL服务在成功完成多少次不可分割的数据操作后(例如InnoDB引擎下的事务操作),才进行一次二进制日志文件的写入操作。设置成1时,写入日志文件的次数是最频繁的,也会造成一定的I/O性能消耗,但同时这样的设置值也是最安全的。
binlog_format:该参数可以有三种设置值:row、statement和mixed。row代表二进制日志中记录数据表每一行经过写操作后被修改的最终值。各个参与同步的Salve节点,也会参照这个最终值,将自己数据表上的数据进行修改;statement形式是在日志中记录数据操作过程,而非最终的执行结果。各个参与同步的Salve节点会解析这个过程,并形成最终记录;mixed设置值,是以上两种记录方式的混合体,MySQL服务会自动选择当前运行状态下最适合的日志记录方式。
binlog-do-db:该参数用于设置MySQL Master节点上需要进行Replicaion操作的数据库名称。
binlog_checksum:该参数用于设置Master节点和Salve节点在进行日志文件数据同步时,所使用的日志数据校验方式。这个参数是在version 5.6版本开始才支持的新配置功能,默认值就是CRC32。如果MySQL集群中有MySQL 节点使用的是version 5.5或更早的版本,请设置该参数的值为none。
binlog_cache_size:该参数设置Master节点上为每个客户端连接会话(session)所使用的,在事务过程中临时存储日志数据的缓存大小。如果没有使用支持事务的引擎,可以忽略这个值的设置。但是一般来说我们都会使用InnoDB引擎,所以该值最好设置成1M——2M,如果经常会执行较复杂的事务,则可以适当加大为3M——4M。
max_binlog_cache_size:该值表示整个MySQL服务中,能够使用的binlog_cache区域的最大值。该值不以session为单位,而是对全局进行设置。
max_binlog_size : 该参数设置单个binlog文件的最大大小。MySQL服务为了避免binlog日志出错或者Salve同步失败,会在两种情况下创建新的binlog文件:一种情况是MySQL服务重启后,另一种情况是binlog文件的大小达到一个设定的阀值(默认为1GB)。max_binlog_size参数就是设置这个阀值的。
完成my.cnf文件的更改后,重启Linux MySql服务新的配置就生效了。接下来需要在Master节点中设置可供连接的Salve节点信息,包括进行Replicaion同步的用户和密码信息:
# 只用MySQL客户端,都可以进行设置: # 这里我们直接使用root账号进行同步, 但是生产环境下不建议这样使用 > grant replication slave on *.* to root@192.168.61.141 identified by '123456'
# 通过以下命令,可以查看设置完成后的Master节点工作状态
> show master status;
+----------------+----------+--------------+------------------+-------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+----------------+----------+--------------+------------------+-------------------+
| kp2-bin.000002 | 404 | qiang | | |
+----------------+----------+--------------+------------------+-------------------+
以上master节点状态的描述中,File属性说明了当前二进制日志文件的名称,它的默认位置在Linux操作系统下的var/lib/mysql目录下。Position属性说明了当前已完成日志同步的数据点在日志文件中的位置。Binlog_Do_DB属性是我们之前设置的,需要进行Replicaion操作的数据库名称,Binlog_Ignore_DB属性就是明确忽略的,不需要进行Replicaion操作的数据库名称。
2-2-2、设置Salve服务器
完成MySQL Master服务的配置后,我们来看看Salve节点该如何进行设置。这里我们只演示一个Salve节点的设置,如果您还要在集群中增加新的Salve节点,那么配置过程都是类似的。无非是要注意在Master节点上增加新的Salve节点描述信息。
首先我们还是需要设置Salve节点的my.cnf文件:
# my.cnf文件中没有涉及Replicaion机制的配置信息,就不在这里列出了 ...... # 开启日志 log-bin
sync_relay_log=1
# 必须为这个MySQL服务节点设置一个集群中唯一的server id信息
server_id=140
......
在MySQL官方文档中也详细描述了中继日志的各种控制参数,这里我们只使用了sync_relay_log参数。这个参数说明了Salve节点在成功接受到多少次Master同步日志信息后,才刷入中继日志文件。这个参数可以设置为1到N的任意一个值,当然设置为1的情况下虽然会消耗一些性能,但对于日志数据来说却是最安全的。
Salve的设置相对简单,接下来我们需要在Salve端开启相应的同步功能。主要是指定用于同步的Master服务地址、用户和密码信息:
# 请注意这里设置的用户名和密码信息要和Master上的设置一致 # 另外master log file所指定的文件 名也必须和Master上使用的日志文件名一致 > change master to master_host='192.168.61.140', master_user='root',master_password='123456', master_log_file='kp2-bin.000002',master_log_pos=120;
# 启动Savle同步
> start slave;
# 然后我们就可以使用以下命令查看salve节点的同步状态
> show slave status;
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.61.140
Master_User: root
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: kp2-bin.000002
Read_Master_Log_Pos: 404
Relay_Log_File: vm2-relay-bin.000002
Relay_Log_Pos: 565
Relay_Master_Log_File: kp2-bin.000002
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
......
Master_Server_Id: 140
Master_UUID: 19632f72-9a90-11e6-82bd-000c290973df
Master_Info_File: /var/lib/mysql/master.info
SQL_Delay: 0
SQL_Remaining_Delay: NULL
Slave_SQL_Running_State: Slave has read all relay log;
waiting for the slave I/O thread to update it
Master_Retry_Count: 86400
......
Auto_Position: 0
完成以上过程,一主一从的MySQL集群就配置完成了。
2-3、一主多从方案的使用建议
一主多从的MySQL集群方案,已经可以解决大部分系统结构化数据存储的性能要求。特别是那种数据查询频率/次数远远大于数据写入频率/次数的业务场景,例如电商系统的商品模块、物流系统的车辆/司机信息模块、电信CRM系统的客户信息模块、监控系统中保存的基本日志数据。但是这种架构方案并不能解决所有的问题,而且方案本身有一些明显的问题(后文详细讨论),所以在这里本文需要为各位将要使用类似MySQL集群方案的读者提供一些使用建议。
Master单节点性能应该足够强大,且只负责数据写入操作:一主多从的MySQL集群方式主要针对读密集型业务系统,其主要目标是将MySQL服务的读写压力进行分离。所以Master节点需要集中精力处理业务的写操作请求,这也就意味着业务系统所有的写操作压力都集中到了这一个节点上(write业务操作)。我们暂且不去分析这个现象可能导致的问题(后续内容会提到这种做法的问题),但这至少要求Master节点的性能足够强大。这里的性能不单单指通过MySQL InnoDB引擎提供的各种配置(一般我们使用InnoDB引擎),并结合业务特点所尽可能榨取的性能,最根本的还需要提升Master节点的硬件性能。
使用固态硬盘作为MySQL服务的块存储基础,并使用RAID 10磁盘阵列作为硬件层构建方案——这是生产环境下单个MySQL服务节点的基本组成逻辑,当然读者可以视自己生产环境下的的实际容量和性能要求进行必要的调整:
应使用一个独立的Salve节点作为备用的Master节点,虽然这种方式不可作为异地多活方案的基础但可作为本地高可用方案的实现基础。当然,为了防止由于日志错误导致的备份失败,这个备份的Salve节点也可以采用MySQL Replicaion机制以外的第三方同步机制,例如:Rsync、DRBD。Rsync是笔者在工作实践中经常使用的,进行MySQL数据增量同步的方式,而DRBD的差异块同步方式是互联网上能够找到最多资料的方式:
在后续的文章中,我们还会专门讨论针对Master节点的集群调整方案,并且建议读者如何使用适合系统自身业务的高可用方案。例如使用Keepalived / Heartbeat进行主备Master节点的切换:
复杂的统计查询需要专门的Salve节点进行支持。参与生产环境实时业务处理的任何MySQL服务节点,在这些服务节点上所运行的SQL查询应该尽可能简单,并且需要使用索引对检索进行支持。特别是数据量非常大的数据表,必须保证所有的检索操作都有索引提供支持,否则Table Full Scan的检索过滤方式不但会拖慢检索操作本身,还可能会明显拖慢其它的事务操作。通过MySQL提供的执行计划功能,技术人员能够很方便实现以上的要求。如果您的业务系统存在复杂的业务查询要求,例如周期性的财务流水报表,周期性的业务分组统计报表等,那么您最好专门准备一个(或多个)脱离实时业务的Salve节点,完成这个工作。
3、方案暴露的問題
但這種MySQL叢集方案也存在許多問題需要進一步改進。在後續的文章中,我們會依序討論MySQL叢集中還存在的以下問題:
面向上層系統的問題:在MySQL一主多從叢集中,存在過個服務節點。那麼當上層業務系統進行資料庫操作時(無論是寫入作業還是讀取操作),是否需要明確知道這些特定的服務節點,並進行連線呢?要知道,當上層業務系統需要控制的要素變得原來越多時,需要業務系統開發人員投入的維護精力就會呈現幾何級成長。
高可用層面的問題:在MySQL一主多從叢集中,雖然存在多個Salve節點(read業務性質節點),但一般只存在一個Master節點(write業務性質節點)。某一個(或多個)Salve節點崩潰了,不會對整個叢集造成太大影響(但可能影響上層業務系統的某一個子系統)。那麼MySQL叢集的短板就在於只有一個Master節點──一旦它崩潰了,整個叢集基本上無法正常運作。所以我們必須想一些辦法改變這個潛在風險。