MySQL 主从复制[异步 同步 半同步复制] 读写分离 优化 (非常重要)

 MySQL 主从复制

1、什么是读写分离?
读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。

2、为什么要读写分离呢?
因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。
但是数据库的“读”(读10000条数据可能只要5秒钟)。

另外写操作会造成行锁或是表锁,会阻塞后续的业务。
所以读写分离,解决的是,数据库的写入,影响了查询的效率。

3、什么时候要读写分离?
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。

4、主从复制与读写分离
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份。

5、MySQL支持的复制类型

由于MySQL主从复制基于二进制日志实现,所以MySQL支持的主从复制类型即为二进制日志允许的记录类型

  • STATEMENT:基于语句的复制。在服务器上执行sql语句,在从服务器上执行同样的语句,mysql默认采用基于语句的复制,执行效率高。(高效率,但是高并发下记录顺序可能混乱导致恢复错误)
  • ROW:基于行的复制。把改变的内容复制过去,而不是把命令在从服务器上执行一遍。(记录被更改的所有行,效率不及statement,但是高负载下不会导致记录混乱)
  • MIXED:混合类型的复制。默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。(低负载statement,高负载row,集合优点,无脑选择即可)

6.MySQL主从复制的几个同步模式

●异步复制(Asynchronous replication)
MySQL默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返给客户端,并不关心从库是否已经接收并处理,这样就会有一个问题,主如果crash掉了,此时主上已经提交的事务可能并没有传到从上,如果此时,强行将从提升为主,可能导致新主上的数据不完整。

●全同步复制(Fully synchronous replication)
指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端。因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会收到严重的影响。

●半同步复制(Semisynchronous replication)
介于异步复制和全同步复制之间,主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少一个从库接收到并写到relay log中才返回给客户端。相对于异步复制,半同步复制提高了数据的安全性,同时它也造成了一定程度的延迟,这个延迟最少是一个TCP/IP往返的时间。所以,半同步复制最好在低延时的网络中使用。

7、主从复制的工作过程(面试必问)

  1. Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中。
  2. Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件
  3. Master节点为每个I/O线程(可能有多个从服务器)启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中,Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地重放,即解析成 SQL 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒。

                                        【注意是请求和发送二进制事件不是二进制日志】

 

MySQL5.7 若开启了半同步复制,主会在开启一个ack collector线程接受从完成中继日志写入后返回的反馈确认信息(就变成了四个线程)


●中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。
●复制过程有一个很重要的限制,即复制在 Slave上是串行化的(避免并行导致的顺序不一致),也就是说 Master上的并行更新操作不能在 Slave上并行操作。

8、MySQL 读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。

9、目前较为常见的 MySQL 读写分离分为以下两种

1)基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。
优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手。
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。

2)基于中间代理层实现(生产环境一般用不到,直接走代码了,省钱)
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。
(1)MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。
(2)Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。
(3)Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。
(4)Mycat。是一款流行的基于Java语言编写的数据库中间件,是一个实现了MySql协议的服务器,其核心功能是分库分表。配合数据库的主从模式还可以实现读写分离。

由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。
Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。




----------------------搭建 MySQL主从复制(记住)-----------------------

Master    服务器:   192.168.80.11        mysql5.7
Slave1    服务器:   192.168.80.12        mysql5.7
Slave2    服务器:   192.168.80.13        mysql5.7
Amoeba  服务器:   192.168.80.20        jdk1.6、Amoeba
客户端 :                 192.168.80.30        mysql

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

----Mysql主从服务器时间同步----

##主服务器设置##

NTP服务只部署在一台服务器上作为主服务器,这里使用Master   192.168.80.11主机。其余主机作为从机,获取主服务器的时间,不连接外网。

只留一台服务器连接公网,一方面更安全,一方面节省公网IP费用

yum install ntp -y
vim /etc/ntp.conf


#restrict default nomodify notrap nopeer noquery
restrict default nomodify     #可以做时间同步 但不允许客户端修改时间参数

#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server ntp.aliyun.com #使用阿里云NTP服务器 不用centos 更快

//由于上方已经配置了从阿里云NTP服务器获取时间,所以下面的操作不用。这两步是将本地时间设置为时钟源的方法。
#--末尾添加--
#server 127.127.80.0                         #设置本地是时钟源,注意修改网段
#fudge 127.127.80.0 stratum 8                #设置时间层级为8(限制在15内)
service ntpd start


##从服务器设置##

yum install ntp ntpdate -y
service ntpd start
ntpdate 192.168.80.11  #进行时间同步 NTP服务刚刚启动可能需要等几分钟
#/usr/sbin/ntpdate 192.168.80.11 若ntpdate未添加系统路径,使用绝对路径
    #23 Jun 23:59:46 ntpdate[3831]: adjust time server 192.168.80.11 offset 0.004692 sec
[root@localhost ~] which ntpd #查看NTP文件绝对路径,用于接下来写入crontab
    /usr/sbin/ntpd
crontab -e           #定时执行时间同步 每30分钟一次

    */30 * * * * /usr/sbin/ntpdate 192.168.80.11

同步NTP时间命令 

ntpdate ntp.aliyun.com
    23 Jun 23:51:59 ntpdate[3746]: adjust time server 203.107.6.88 offset 0.001726 sec

主NTP服务器(192.168.80.11)查看获取的阿里云NTP信息 

[root@localhost ~] ntpq -p

     remote           refid      st t when poll reach   delay   offset  jitter
==============================================================================
*203.107.6.88    100.107.25.114   2 u   17   64  177   28.040   -0.813   1.920

----主服务器的mysql配置&优化-----

更改配置支持二进制日志 并且设置不一样的server id

vim /etc/my.cnf


server-id=11                         #✨server-id必须不同
log-bin=mysql-bin                    #✨添加,主服务器开启二进制日志
binlog_format=mixed
    
#选配项    
expire_logs_days=7                   #设置二进制日志文件过期时间,默认值为0,表示logs不过期
max_binlog_size=500M                 #设置二进制日志限制大小,如果超出给定值,日志就会发生滚动,默认值是1GB
skip_slave_start=1                   #阻止从库崩溃后自动启动复制,崩溃后再自动复制可能会导致数据不一致的

优化设置
#"双1设置",数据写入最安全
innodb_flush_logs_at_trx_commit=1    #redo log(事务日志)的刷盘策略,每次事务提交时MySQL都会把事务日志缓存区的数据写入日志文件中,并且刷新到磁盘中,该模式为系统默认
sync_binlog=1                        #在进行每1次事务提交(写入二进制日志)以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘
---------------------------------------------------------------
#"双1设置"适合数据安全性要求非常高,而且磁盘IO写能力足够支持的业务,比如订单、交易、充值、支付消费系统。"双1模式"下,当磁盘IO无法满足业务需求时,比如11.11活动的压力。推荐一下性能较快的设置,并使用带蓄电池后备电源,防止系统断电异常。
innodb_flush_logs_at_trx_commit=2    #每次事务提交时MySQL都会把日志缓存区的数据写入日志文件中,但是并不会同时刷新到磁盘上。该模式下,MySQL会每秒执行一次刷新磁盘操作
sync_binlog=500                      #在进行500次事务提交以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘
systemctl restart mysqld

双1设置解释(可能问)双1设置保证主服务器数据安全         半同步复制保证从服务器拷贝安全

innodb_flush_logs_at_trx_commit=1      事务日志写入磁盘策略             0性能最好 1最安全 2为折中 

sync_binlog=1                                            二进制日志写入磁盘策略         每1次事务提交 写入一次磁盘

当事务日志与二进制日志 全部设为1 则每次事务提交都会写入到磁盘。适合安全性需求极高并且磁盘I/O性能满足的情况下。

当618 1111高负载,建议innodb_flush_logs_at_trx_commit=2  sync_binlog=500 满足性能需求。

---------------------------------------------------------------

创建数据库主从复制用户并授权

mysql -u root -p #-p后加密码免交互
mysql -u root -pabc123
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.80.%' IDENTIFIED BY '123456';    #给从服务器授权
FLUSH PRIVILEGES;

---------------------------------------------------------------

查看主服务器的状态

show master status;

//如显示以下 #File 列显示使用的日志名,Position 列显示偏移量,代表从服务器从这个位置点开始复制数据

mysql> show master status;
+------------------+----------+--------------+------------------+-------------------+
| File             | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+------------------+----------+--------------+------------------+-------------------+
| mysql-bin.000001 |      603 |              |                  |                   |
+------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)

----从服务器的mysql配置&优化----

开启从服务器中继日志,并且更改不同的server id

vim /etc/my.cnf


server-id = 12   #另一slave设为13 不能一样      #✨server-id必须不同。修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin                        #开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=relay-log-bin.index            #定义中继日志文件的位置和名称,一般和relay-log在同一目录

优化设置 选配项
innodb_buffer_pool_size=2048M
#用于缓存数据和索引的内存大小,让更多数据读写内存中完成,减少磁盘操作,可设置为服务器总可用内存的 70-80%
sync_binlog=0
#MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘(降低主从复制延迟)
innodb_flush_log_at_trx_commit=2
#每次事务log buffer会写入log file,但一秒一次刷新到磁盘(降低主从复制延迟)
log-slave-updates=0
#只有当本服务器当上一级的从服务器又作为下一级的主服务器时开启,slave 从 master 复制的数据会写入二进制日志文件里
#从库做为其他从库的主库时设置为 1。不然不建议开启,占用资源(设0降低主从复制延迟)
relay_log_recovery=1
#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log, 并且重新从 master 上获取日志
#这样就保证了 relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。
systemctl restart mysqld

 ---------------------------------------------------------------

mysql -u root -p #-p后加密码免交互
mysql -u root -pabc123
CHANGE master to master_host='192.168.80.11',master_port=3306,master_user='myslave',master_password='123456',master_log_file='mysql-bin.000001',master_log_pos=603;
#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致
start slave;

#启动同步,如有报错执行 
stop slave;
reset slave;
start slave;
show slave status\G                 #查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes               #负责与主机的io通信
Slave_SQL_Running: Yes              #负责自己的slave mysql进程

一般 Slave_IO_Running: No 的可能性
1、网络不通
2、my.cnf配置有问题
3、密码、file文件名、pos偏移量不对
4、防火墙没有关闭

在本次实验中出现了以下问题,当查看slave status显示有重复UUID。这里已经修改过mu.cnf中的server_id了,那怎么回事呢?

经过折腾,找出了原因。由于并未在多台虚拟机上安装MySQL,而是采用了克隆虚拟机方式,导致在/usr/local/mysql/data/auto.cnf中记载的UUID完全一致、将auto.cnf移走,重启MySQL服务,即可解决(server_id和UUID是两个东西,不要搞混了)

mv /usr/local/mysql/data/auto.cnf /usr/local/mysql/data/auto.cnf.bak
systemctl restart mysqld

============MySQL主从复制延迟=============(面试题)

主从复制延迟原因?

  1. master服务器高并发,形成大量事务
  2. 网络延迟
  3. 主从硬件设备差异较大导致( cpu主频、内存io、硬盘io )  
  4. 是同步复制、而不是异步复制(同步复制需要等待从服务器回应)

如何知道主从同步延迟?

方法1:通过监控show slave status\G命令输出的Seconds_Behind_Master参数的值来判断,是否有发生主从延时。
方法2:mk-heartbeat:Maatkit万能工具包中的一个工具

如何解决主从延迟?

对应第一问的4点问题,对应给出相应的解决方法。

  1. 配置:从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作。并且更改双1设置,更改写入磁盘策略
    增大缓存
    innodb_buffer_pool_size=4096M 
    
    日志写入磁盘策略 不频繁写入
    sync_binlog=0  MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘
    innodb_flush_log_at_trx_commit=2 每次事务log buffer会写入log file,但一秒一次刷新到磁盘
    
    slave 从 master 复制的数据不写入二进制日志文件里
    log-slave-updates=0
    
  2. 网络:网络优化,避免跨机房实现同步 从库分布在相同局域网或延迟较小的环境中 
  3. 硬件:从库使用高性能主机。包括更强悍的cpu、内存加大、提升随机写性能 。避免使用虚拟云主机,使用物理主机,使用SSD磁盘这样提升了i/o方面性能
  4. 采用半同步复制(保证安全与效率)或直接使用异步设置(只保证效率)
    vim /etc/my.cnf                #在 [mysqld] 区域添加下面内容
    
    ......
    plugin-load=rpl_semi_sync_master=semisync_master.so          #加载mysql半同步复制的插件
    rpl_semi_sync_master_enabled=ON                              #或者设置为"1",即开启半同步复制功能
    rpl-semi-sync-master-timeout=1000                            #超时时间为1000ms,即1s

----验证主从复制效果----

主服务器上进入执行

create database xue;

去从服务器上查看

show databases;


主从分离的同步模式

MySQL主从复制的几个同步模式(面试题)

●异步复制(Asynchronous replication)
MySQL默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返给客户端,并不关心从库是否已经接收并处理,这样就会有一个问题,主如果crash掉了,此时主上已经提交的事务可能并没有传到从上,如果此时,强行将从提升为主,可能导致新主上的数据不完整。

●全同步复制(Fully synchronous replication)
指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端。因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会收到严重的影响

●半同步复制(Semisynchronous replication)
介于异步复制和全同步复制之间,主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少一个从库接收到并写到relay log中才返回给客户端。相对于异步复制,半同步复制提高了数据的安全性,同时它也造成了一定程度的延迟,这个延迟最少是一个TCP/IP往返的时间。所以,半同步复制最好在低延时的网络中使用。

//主数据库配置

vim /etc/my.cnf                #在 [mysqld] 区域添加下面内容

......
plugin-load=rpl_semi_sync_master=semisync_master.so          #加载mysql半同步复制的插件
rpl_semi_sync_master_enabled=ON                              #或者设置为"1",即开启半同步复制功能
rpl-semi-sync-master-timeout=1000                            #超时时间为1000ms,即1s
systemctl restart mysqld

//从数据库配置

vim /etc/my.cnf    

......
plugin-load=rpl_semi_sync_slave=semisync_slave.so
rpl_semi_sync_slave_enabled=ON
systemctl restart mysqld

//查看半同步是否在运行

#主数据库执行

show status like 'Rpl_semi_sync_master_status';
show variables like 'rpl_semi_sync_master_timeout';

#从数据库执行(此时可能还是OFF状态,需要在下一步重启IO线程后,从库半同步状态才会为ON)

show status like 'Rpl_semi_sync_slave_status';

#重启从数据库上的IO线程

STOP SLAVE IO_THREAD;
START SLAVE IO_THREAD;

#在主库查询半同步状态 

show status like '%Rpl_semi%';    

参数说明:
Rpl_semi_sync_master_clients                      #半同步复制客户端的个数
Rpl_semi_sync_master_net_avg_wait_time            #平均等待时间(默认毫秒)
Rpl_semi_sync_master_net_wait_time                #总共等待时间
Rpl_semi_sync_master_net_waits                    #等待次数
Rpl_semi_sync_master_no_times                     #关闭半同步复制的次数
Rpl_semi_sync_master_no_tx                        #表示没有成功接收slave提交的次数
Rpl_semi_sync_master_status                       #表示当前是异步模式还是半同步模式,on为半同步
Rpl_semi_sync_master_timefunc_failures            #调用时间函数失败的次数
Rpl_semi_sync_master_tx_avg_wait_time             #事物的平均传输时间
Rpl_semi_sync_master_tx_wait_time                 #事物的总共传输时间
Rpl_semi_sync_master_tx_waits                     #事物等待次数
Rpl_semi_sync_master_wait_pos_backtraverse        #可以理解为"后来的先到了,而先来的还没有到的次数"
Rpl_semi_sync_master_wait_sessions                #当前有多少个session因为slave的回复而造成等待
Rpl_semi_sync_master_yes_tx                       #成功接受到slave事物回复的次数

什么情况半同步复制会降级为异步复制?(面试题)

当半同步复制发生超时(由rpl_semi_sync_master_timeout参数控制,默认为10000ms,即10s),会暂时关闭半同步复制,转而使用异步复制,也就是会自动降为异步工作。
当 master dump 线程发送完一个事务的所有事件之后,如果在 rpl_semi_sync_master_timeout 内,收到了从库的响应, 则主从又重新恢复为半同步复制。


注:

  • 在一主多从的架构中,如果要开启半同步复制,并不要求所有的从都是半同步复制。可以有从服务器为异步,同时有服务器是半同步。
  • MySQL 5.7极大的提升了半同步复制的性能。
    • 5.6 版本的半同步复制,dump thread 承担了两份不同且又十分频繁的任务:传送binlog 给 slave ,还需要等待 slave 反馈信息,而且这两个任务是串行的,dump thread 必须等待 slave 返回之后才会传送下一个 events 事务。dump thread 已然成为整个半同步提高性能的瓶颈。在高并发业务场景下,这样的机制会影响数据库整体的系统吞吐量(TPS)。
    • 5.7 版本的半同步复制中,独立出一个 ack collector thread ,专门用于接收 slave 的反馈信息。这样 master 上有两个线程独立工作,可以同时发送 binlog 到 slave ,和接收 slave 的反馈。


如何解决主从复制不一致?(面试题)

使用pt-table-checksum发现主从不一致

方法1 忽略错误后,继续同步(不建议)

适用于主从数据库相差不大,或者数据要求不严格,可以不完全统一的情况。

stop slave;

#表示跳过一步错误,后面的数字可变
set global sql_slave_skip_counter =1;

start slave;

方法2 手动重新主从同步

该方法适用于主从库数据相差较大,数据要求完全统一的情况。手动生成主库的完全备份,传输至从库恢复。然后重新同步主从库即可。

简要步骤         1 锁定主库 2 完全备份主库并在从库恢复 3重新设置主从同步

1.先进入主库,进行锁表,防止数据写入

flush tables with read lock;

2.进行数据备份

mysqldump -uroot -p -hlocalhost > mysql.bak.sql

3.查看master 状态

show master status;

4.把mysql备份文件传到从数据库

scp mysql.bak.sql root@192.168.80.12:/opt/

5.停止从库主从同步

stop slave;

6.从库执行导入数据备份

source /opt/mysql.bak.sql

7.设置从库同步,注意该处的同步点,就是第三步查询结果主库信息里的| File| Position两项

change master to master_host = '192.168.128.11', master_user = 'rsync', master_port=3306, master_password='', master_log_file = 'mysqld-bin.000002', master_log_pos=514;

8.重新开启从同步

start slave;

9.查看同步状态

show slave status\G



----------------------搭建 MySQL读写分离--------------------------------

----Amoeba服务器配置---- 

##安装 Java 环境##

因为 Amoeba 基于是 jdk1.5 开发的,所以官方推荐使用 jdk1.5 或 1.6 版本,高版本不建议使用。

安装java

cd /opt/
cp jdk-6u14-linux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64.bin

./jdk-6u14-linux-x64.bin
//按yes,按enter
mv jdk1.6.0_14/ /usr/local/jdk1.6

加入系统变量,刷新 

vim /etc/profile

export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
source /etc/profile

查看java安装版本 

java -version

##安装 Amoeba软件##

mkdir /usr/local/amoeba
tar zxvf /opt/amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/

/usr/local/amoeba/bin/amoeba
//如显示amoeba start|stop说明安装成功

##配置 Amoeba读写分离,两个 Slave 读负载均衡##

#先在Master、Slave1、Slave2 的mysql上开放权限给 Amoeba 访问

grant all on *.* to test@'192.168.80.%' identified by '123456';

#再回到amoeba服务器配置amoeba服务:

cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak

amoeba 配置 

vim amoeba.xml               #修改amoeba配置文件

--30行-- 这是客户端连接amoeba用的用户名,密码。与MySQL的不一样
<property name="user">admin</property>
--32行-- 
<property name="password">admin123</property>
--115行--
<property name="defaultPool">master</property>
--117-去掉注释-
<property name="writePool">master</property>
<property name="readPool">slaves</property>

amoeba 连接数据库配置 

cp dbServers.xml dbServers.xml.bak
vim dbServers.xml      #修改数据库配置文件

--23行--注释掉  作用:默认进入test库 以防mysql中没有test库时,会报错
<!-- <property name="schema">test</property> -->
i
--26--修改
<property name="user">test</property>
--28-30--去掉注释
<property name="password">123456</property>

--45--修改,设置主服务器的名Master
<dbServer name="master"  parent="abstractServer">
--48--修改,设置主服务器的地址
<property name="ipAddress">192.168.80.11</property>

--52--修改,设置从服务器的名slave1
<dbServer name="slave1"  parent="abstractServer">
--55--修改,设置从服务器1的地址
<property name="ipAddress">192.168.80.12</property>

--58--复制上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2"  parent="abstractServer">
<property name="ipAddress">192.168.80.13</property>

--65行--修改
<dbServer name="slaves" virtual="true">
--71行--修改
<property name="poolNames">slave1,slave2</property>

启动Amieba,查看启动情况

/usr/local/amoeba/bin/amoeba start&                  #启动Amoeba软件,按ctrl+c 返回 &为后台运行
netstat -anpt | grep java                            #查看8066端口是否开启,默认端口为TCP 8066

----测试读写分离 ----

在客户端服务器上安装

yum install -y mariadb-server mariadb
systemctl start mariadb.service

在客户端服务器上测试

mysql -u admin -p -h 192.168.80.20 -P8066        #不指定密码
mysql -u admin -padmin123 -h 192.168.80.20 -P8066  #指定密码免交互      
//通过amoeba服务器代理访问mysql ,在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从--从服务器

在主服务器上

create database db_test;
use db_test;
create table test (id int(10),name varchar(10),address varchar(20));

在两台从服务器上

stop slave;                   #关闭同步
use db_test;

//在slave1上

insert into test values('1','zhangsan','this_is_slave1');
//在slave2上
insert into test values('2','lisi','this_is_slave2');

//在主服务器上

insert into test values('3','wangwu','this_is_master');

//在客户端服务器上

use db_test;
select * from test;
//客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器上添加的数据

insert into test values('4','qianqi','this_is_client');

在三台主机上

select * from test

//只有主服务器上有此数据  据此确认实现了读写分离

 在两台从服务器上

start slave;

 //在两个从服务器上执行 start slave; 即可实现同步在主服务器上添加的数据,据此判断实现了主从复制

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/35917.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

计算机网络概述(三)

常见的计算机网络体系结构 OSI体系结构&#xff1a; 物理层→数据链路层→网络层→运输层→会话层→表示层→应用层 TCP/IP体系结构&#xff1a; 网络接口层→网际层→运输层→应用层 一般用户的设备都有TCP/IP协议用于连接因特网&#xff0c;TCP/IP的网络接口层并没有规定使用…

【Redis】秒杀业务设计、悲观锁与乐观锁

1 全局ID生成器 一些情境下&#xff0c;使用数据库的ID自增将会产生一些问题。 一方面&#xff0c;自增ID规律性明显&#xff0c;可能被猜测出来并产生一些漏洞另一方面&#xff0c;当数据量很大很大很大时&#xff0c;单表数据量可能会受到限制&#xff0c;需要分表&#xf…

网络编程5——TCP协议的五大效率机制:滑动窗口+流量控制+拥塞控制+延时应答+捎带应答

文章目录 前言一、TCP协议段与机制TCP协议的特点TCP报头结构TCP协议的机制与特性 二、TCP协议的 滑动窗口机制 三、TCP协议的 流量控制机制 四、TCP协议的 拥塞控制机制 五、TCP协议的 延时应答机制 六、TCP协议的 捎带应答机制 总结 前言 本人是一个普通程序猿!分享一点自己的…

RabbitMQ在SpringBoot中的高级应用(2)

过期时间 1.单独的设置队列的存活时间,队列中的所有消息的过期时间一样 Bean//创建交换机public DirectExchange ttlQueueExchange(){// 交换机名称 是否持久化 是否自动删除return new DirectExchange("ttl_queue_log",true,false);}Bean//创建队列publ…

吴恩达ChatGPT《LangChain for LLM Application Development》笔记

基于 LangChain 的 LLM 应用开发 1. 介绍 现在&#xff0c;使用 Prompt 可以快速开发一个应用程序&#xff0c;但是一个应用程序可能需要多次写Prompt&#xff0c;并对 LLM 的输出结果进行解析。因此&#xff0c;需要编写很多胶水代码。 Harrison Chase 创建的 LangChain 框…

需求分析引言:架构漫谈(五)架构师成长之路

我研发领域也从事了一些年&#xff0c;期间也做过一些架构设计工作&#xff0c;包括C#单体转型为Java微服务、Python单体转型为Java微服务等&#xff0c; 也尝试着从自己的经验角度&#xff0c;来汇总一些知识点&#xff0c;同时描述一下如何成长为一个合格的软件架构师&#x…

基于SpringBoot+Vue+微信小程序的电影平台

✌全网粉丝20W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末获取项目下载方式&#x1f345; 一、项目背景介绍&#xff1a; 研究背景&#xff1a;…

Docker 中的 .NET 异常了怎么抓 Dump (转载)

一、背景 1. 讲故事 有很多朋友跟我说&#xff0c;在 Windows 上看过你文章知道了怎么抓 Crash, CPU爆高&#xff0c;内存暴涨 等各种Dump&#xff0c;为什么你没有写在 Docker 中如何抓的相关文章呢&#xff1f;瞧不上吗&#xff1f; 哈哈&#xff0c;在DUMP的分析旅程中&a…

提升工作效率:推荐几款实用的Mac项目管理工具!

在当今软件和技术高度发达的时代&#xff0c;项目管理依然是一项非常重要的任务。现在&#xff0c;有越来越多的人喜欢使用mac电脑进行项目管理&#xff0c;因为mac众所周知的稳定性和使用便捷性。但问题是&#xff0c;mac系统自带的项目管理工具并不是非常完美&#xff0c;因此…

Linux——进程信号详解

目录 一.进程信号的理解 1.1定义&#xff1a; 1.2举例&#xff1a; 1.3总结&#xff1a; 二.进程信号地使用&#xff1a; 2.1信号种类&#xff1a; 2.2而操作系统向进程发送信号地方式有四种&#xff1a; 2.2.1以键盘的方式向进程发送信号 接下来介绍一个系统调用函数sign…

Windows系统上安装Node.js图文步骤流程

Windows系统上安装Node.js图文步骤流程&#xff0c;本文以安装Node.js v4.4.3 LTS(长期支持版本)版本为例&#xff1a; 目录 Node.js下载 Windows 上安装 Node.js 1、Windows 安装包(.msi) 2、Windows 二进制文件 (.exe)安装 版本测试 Node.js下载 Node.js 安装包及源码…

nginx七层代理和四层转发的理解

先来理解一下osi七层模型 应用层 应用层是ISO七层模型的最高层&#xff0c;它直接与用户和应用程序交互&#xff0c;提供用户与网络的接口。它包括各种应用协议&#xff0c;如HTTP、FTP、SMTP等&#xff0c;用于实现特定应用的功能和通信表示层 表示层…

Java进程ProcessBuilder类的介绍及使用,ProcessBuilder调用外部程序执行shell命令Linux命令

目录 ProcessBuilder类的介绍及使用 【前言】 【正文】 --构造方法-- --常用方法-- --使用技巧-- --调用本地Shell命令&#xff0c;实例-- 【总结】 【注意】 ProcessBuilder类的介绍及使用 【前言】 在做一个项目的时候需要用到运行时动态执行JAVA命令&#xff0c;一…

leetcode 225.用队列实现栈

⭐️ 题目描述 &#x1f31f; leetcode链接&#xff1a;用队列实现栈 1️⃣ 思路和图解&#xff1a; push&#xff1a; 入栈操作只需要往不为空的队列入数据即可&#xff0c;如果都为空&#xff0c;其中任意一个队列都可以。 void myStackPush(MyStack* obj, int x) {// 往…

CS EXE上线主机+文件下载上传键盘记录

前言 书接上文&#xff0c;CobaltStrike_1_部署教程及CS制作office宏文档钓鱼教程&#xff0c;该篇介绍【使用CS生成对应exe木马&#xff0c;上线主机&#xff1b;对上线主机进行&#xff0c;文件下载&#xff0c;文件上传&#xff0c;键盘记录】。 PS&#xff1a;文章仅供学习…

数仓建设中最常用模型--Kimball维度建模详解

数仓建模首推书籍《数据仓库工具箱&#xff1a;维度建模权威指南》&#xff0c;本篇文章参考此书而作。文章首发公众号&#xff1a;五分钟学大数据&#xff0c;公众号后台发送“维度建模”即可获取此书籍第三版电子书 先来介绍下此书&#xff0c;此书是基于作者 60 多年的实际业…

SpringBoot前后端分离项目,打包、部署到服务器详细图文流程

文章目录 实施步骤一、修改配置文件地址1.修改MySQL配置2.修改Redis配置3.修改日志路径和字符集配置 二、将源码压缩并上传服务器1.上传前端文件2.上传后端文件&#xff08;同上&#xff09; 三、前端项目打包1.安装依赖2.项目打包 四、后端项目打包1.项目打包&#xff08;jar包…

Ubuntu 20.04 LTS 安装 nvidia 驱动 + cuda 11.8 从开始到放弃!

升级 sources.list # 默认注释了源码镜像以提高 apt update 速度&#xff0c;如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ jammy main restricted universe multiverse deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ jammy main restri…

java的断言

断言介绍 Java的断言就是一条assert 声明&#xff0c;其中包含了一个布尔表达式。 断言可以被启用或者禁用&#xff0c;默认是禁用的。 断言被启用的情况下&#xff0c;执行到断言的声明&#xff0c;就会计算布尔表达式的值。如果表达式的值为false&#xff0c;那么就会抛出一…

9、架构:CLI 设计

通常大部分的程序员会更加习惯使用 CLI&#xff08;Command-Line Interface 命令行界面&#xff09;来辅助开发业务&#xff0c;包括初始化、更新、构建、发布等功能&#xff0c;可以获得沉浸式一站的开发体验。 在之前有一篇企业级 CLI 开发实战介绍过如何开发一款适用团队的…