mysql的主从复制,读写分离

主从复制:主mysql的数据,新增,修改,表里的数据都会同步到从mysql上

主从复制的模式:

1 异步复制

mysql 的最常用的复制,只要执行完,客户端提交事务,主mysql 会立即把结果返回给从服务器,主服务器并不关心从mysql是否接收是否处理,主一旦崩溃,主mysql的事务可能没有传到从MySQL,这个时候强行把从提升为主,可能到新mysql的数据不完整

2全同步复制

主库完成一个事务,所有的从库执行了该事物,才会返回给客户端,因为要等待所有从库全部执行完成,性能必须下降(适用于对数据一致性,和数据完整性很好的场景)

3 半同步复制

介于异步和全同步复制之后,主库执行完一个客户端的事务之后,至少等待一个库的接收完成之后,才会返回给客户端,半同步在一定程度上提高了数据的安全性,也会有一定的延迟延迟一般是个tcp、IP的往返时间(从发送到接收的时间,单位是是毫秒)半同步复制用在网络电视上,时间<1ms:round-trip time RTT

实验架构:

主从复制 和读写分离

Mysql1 主192.168.233.21

Mysql2 从 192.168.233.22

Mysql3 从192.168.233.23

Test1读写分离的服务器 amoeba 192.168.233.10

Test5 客户端 192.168.233.20

#关闭防火墙和安全机制

systemctl stop firewalld

setenforce 0

#设置主从服务器的时间同步工具

yum -y install ntp

#主服务器上本地设置时钟源,注意网段修改 

#设置时间层级为8(限制在15秒内)

#数字越小表示时钟源越精确。通常,
本地时钟源被设置为较高的 stratum 等级(例如,8)以表示它不是通过网络获取的,
而是本地的。

vim /etc/ntp.conf

systemctl restart ntpd

#从服务器设置

systemctl restart ntpd

#2台从服务器分别指向源服务器

/usr/sbin/ntpdate 192.168.233.21

#2台从服务器分别新建一个定时任务

crontab -e -u root

#3台主机的时间同时查看是否一致

date

#主mysql主服务器开启二进制日志,允许从服务器复制数据时,可以从主的二进制写到自己的二进制日志当中

vim /etc/my.cnf

systemctl restart mysqld

#进入主服务器的mysql的数据库

mysql -u root -p123456

##新建一个用户授权给从服务器授权

grant replication slave on *.* to 'myslave'@'192.168.233.%' indendified by '123456';

#查看主服务器的状态,查看position是多少

show master status;

##修改从服务器的的mysqld ,注意id  master 和两个slave的id 也要不同

vim /etc/my.cnf

systemctl restart mysqld

Server-id = 2

Relay-log=relay-log-bin

Relay-log-index=slave-relay-bin.index

Relay_log_recovery=1

默认是0  1开启中继日志的服务器,从服务器出现异常或者崩溃时,从服务器会从主服务器的二进制争取和应用中继日志同步

Server-id = 3

Relay-log=relay-log-bin

Relay-log-index=slave-relay-bin.index

Relay_log_recovery=1

第一台从id 是 2 

第二台id是3

##2台服务器进入musql数据库

mysql -u root -p123456

#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致

CHANGEmastertomaster_host='192.168.233.21',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=604;               

2台从服务器操作

#启动同步,如有报错执行reset slave;

start slave;

#查看slave 状态

Slave_io_running:yes 负责和主库的io通信

Slave_sql running:yes 负责自己的slave mysql进程

##这里 如果报错显示是 slave io running:no

1 网络问题

2 my.cnf 配置文件写错了

3 密码、file文件名、pos偏移量不对
4 防火墙没有关闭

##验证主从复制是否成功

在主服务器上创建一个表,两个从也有表

mysql 的主从复制延迟

原因:

网络延迟

主从硬件设备导致(CPU主频,内存IO,硬盘IO)

同步复制,而不是异步复制

解决方案:

1硬件方面 

从库配置更好的硬件,提升随机写的性能,比如原本是机械盘,可以考虑更换为ssd固态。升级核心数更强的cpu,加大内存,避免使用虚拟云主机,使用物理机

2 网络方面

将从库分布在相同局域网内或者网路延迟较小的中,尽量避免夸机房,扩网域进行主从服务器的配置

3 架构方面

在事务中尽量对主库读写,其他事物的读在从库中,消除一部分延迟带来的数据库不一致,增加缓存降低一些从库的负载。

4 mysql 的服务配置方面

该配置针对mysql主从复制性能优化最大化,安全性并不高,如果从安全的角度考虑的话,就要设置双一设置

追求安全性的双一设置:

innodb_flush_log_at_trx_commit=1

0: 事务提交时不刷新事务日志,而是每秒进行一次日志刷新,这可以提高性能,但在发生故障时可能会导致数据丢失

1:默认值 每次事务提交都会刷新日志,确保事务的持久性,这提供了最高级别的数据安全性,但可能会影响性能

2 事务提交时将四五日志写入操作系统缓存中,但不进行物理刷新,这提供了一定的数据安全性和性能

sync_binlog=1

0: 二进制日志写入操作系统缓存,但不进行物理刷新,这提高了最高性能,但在发生故障时可能会导致数据丢失

1 :默认值,每次提交事务都会二进制日志刷新到磁盘,以确保日志的持久性,这提供了较高级别的数据安全性

N:每次事务提交时,将二进制日志刷新到磁盘,但是最多每N个事务执行一次物理刷新,这在某些情况下可以提高性能,但是在发生故障时可能会导致少量数据丢失

追求性能化设置:

sync_binlog=0:

设置为0表示二进制日志(binary log)写入操作系统缓存,但不进行物理刷新。

这提供了较高的性能,但在系统崩溃或断电时可能会导致未刷新的二进制日志数据的丢失。

innodb_flush_log_at_trx_commit=2:

设置为2表示事务提交时将事务日志写入操作系统缓存,但不进行物理刷新。

这提供了一定的性能提升,但在系统崩溃或断电时可能会导致未刷新的事务日志数据的丢失。

logs-slave-updates=0:

如果设置为0,表示不将从库的更新写入二进制日志。

这对于避免在主从复制中引入循环复制(circular replication)很有用。

增大 innodb_buffer_pool_size:

innodb_buffer_pool_size 控制 InnoDB 存储引擎的缓冲池大小。增大这个值可以提高 InnoDB 的性能,

因为更多的数据和索引可以缓存在内存中,减少了对磁盘的访问次数。但要注意,

设置得太大可能导致系统内存不足。

主从复制的工作过程:

1 主节点的数据记录发生变化,都会记录到二进制日志

2 slave节点会在一定时间内对主库的二进制文件进行探测,看是否发生 变化,开启一个I/O的线程,请求到主库的二进制事件

3 主库会把每一个I/O的线程启动一个dump,用于发送二进制事件给从库,从库通过I/O线程获取更新,slave sql 负责更新写入到从库本地,实现主从一致

主从复制问题:

1 只能在主库发生变化,然后同步到从

2 复制过程是串行化过程,在从库上时复制串行的,主库的更新不能从从库上操作。

3 主从涉及的目的就是为了在主库上写,在从库上查,读写分离实现高可用

读写分离:

要实现读写分离,必须要实现主从复制

读写分离:所有的写入操作都在主库,从库只负责读(select)r如果有更新是从主库到从库

为什么要有读写分离:

1 数据库在写入数据时比较耗时

2 但是读的速度很快

读写分离之后数据库的写入和读取是分开,哪怕写入的数据量比较大,也不影响查询的效率。

什么场景下需要读写分离:

数据库不是一定要读写分离的,只有在某些程序的使用数据库中, 更新少查询的较多,或者读写读写需求差不多的情况下,会考虑读写分离

生产中一般都会读写分离

测试库一般不用

在工作中,数据库都会做读写分离,数据库的读写不在同一个库完成,否则不能实现高可用,高并发,

mysql读写分离的原理:

1 根据脚本实现,在代码中实现路由分类,select insert 进行路由分类,这种方式最多的,性能好,在代码中可以实现,不需要额外的设备

缺点:开发实现的和我们无关,如果是大型复杂的应用,涉及改动的代码非常多

2 基于中间代理层实现

mysql-proxy自带的开源项目,基于自带的java脚本,这些脚本不是现成的,要自己写,不熟悉他的内置变量,写不出来,

atlas 360 内部多自己使用的代理工具,每天的读写请求载量可以达到几十亿条,支持事务支持存储的过程,

amoeba 陈思儒是由Java开发的一个开源团建,不支持事务,也不支持存储过程

搭建MySQL读写分离

注:做读写分离实验之前必须有一主两从环境

Mysql1 主192.168.233.21

Mysql2 从 192.168.233.22

Mysql3 从192.168.233.23

Test1读写分离的服务器 amoeba 192.168.233.10

Test5 客户端 192.168.233.20

jdk1.5开发的官方推荐我们使用1.5.1.6

amoeba 服务器配置

##安装java环境

因为amoeba是基于jdk1.5开发的,所有官方推荐使用jdk1.5/jdk1.6版本,高版本不建议使用,

cd /opt/

cp jdk-6u14-linux-x64.bin /usr/local/

cd /usr/local/

chmod +x jdk-6u14-linux-x64.bin

./jdk-6u14-linux-x64.bin

//按yes,按enter

mv jdk1.6.0_14/ /usr/local/jdk1.6

vim /etc/profile

export JAVA_HOME=/usr/local/jdk1.6

export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin

export AMOEBA_HOME=/usr/local/amoeba

export PATH=$PATH:$AMOEBA_HOME/bin

source /etc/profile

java -version

##安装 Amoeba软件##

mkdir /usr/local/amoeba

tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/

chmod -R 755 /usr/local/amoeba/

/usr/local/amoeba/bin/amoeba

//如显示amoeba start|stop说明安装成功

##配置 Amoeba读写分离,两个 Slave 读负载均衡##

#先在Master、Slave1、Slave2 的mysql上开放权限给 Amoeba 访问

grant all on *.* to amoeba@'192.168.233.%' identified by '123456';

flush privileges;

###再回到amoeba服务器配置amoeba服务:

cd /usr/local/amoeba/conf/

cp amoeba.xml amoeba.xml.bak

vim amoeba.xml #修改amoeba配置文件

--30行--

<property name="user">amoeba</property>

--32行--

<property name="password">123456</property>

--115行--

<property name="defaultPool">master</property>

--117-去掉注释-

<property name="writePool">master</property>

<property name="readPool">slaves</property>

cp dbServers.xml dbServers.xml.bak

vim dbServers.xml #修改数据库配置文件

--23行--注释掉  作用:默认进入test库 以防mysql中没有test库时,会报错

<!-- <property name="schema">test</property> -->

--26--修改

<property name="user">amoeba</property>

--28-30--去掉注释

<property name="password">123456</property>

--45--修改,设置主服务器的名Master

<dbServer name="master"  parent="abstractServer">

--48--修改,设置主服务器的地址

<property name="ipAddress">192.168.233.21</property>

--52--修改,设置从服务器的名slave1

<dbServer name="slave1"  parent="abstractServer">

--55--修改,设置从服务器1的地址

<property name="ipAddress">192.168.233.22</property>

--58--复制上面6行粘贴,设置从服务器2的名slave2和地址

<dbServer name="slave2"  parent="abstractServer">

<property name="ipAddress">192.168.233.23</property>

--65行--修改

<dbServer name="slaves" virtual="true">

--71行--修改

<property name="poolNames">slave1,slave2</property>

/usr/local/amoeba/bin/amoeba start & #启动Amoeba软件,按ctrl+c 返回

netstat -anpt | grep java #查看8066端口是否开启,默认端口为TCP 8066

配置用户信息

少个图

----测试读写分离 ----

yum install -y mariadb-server mariadb

systemctl start mariadb.service

#在主从服务器上开启查询日志

general_log=ON

general_log_file=/usr/local/mysql/data/mysql_general.log

在客户端服务器上测试:

mysql -u amoeba -p123456 -h 192.168.233.10 -P8066

//通过amoeba服务器代理访问mysql ,在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从--从服务器

在主服务器上:

use db_test;

create table test (id int(10),name varchar(10),address varchar(20));

在两台从服务器上:

stop slave; #关闭同步

use db_test;

//在slave1上:

insert into test values('1','zhangsan','this_is_slave1');

//在slave2上:

insert into test values('2','lisi','this_is_slave2');

//在主服务器上:

insert into test values('3','wangwu','this_is_master');

//在客户端服务器上:

use db_test;

select * from test; //客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器上添加的数据

insert into test values('4','qianqi','this_is_client'); //只有主服务器上有此数据

//在两个从服务器上执行 start slave; 即可实现同步在主服务器上添加的数据

start slave;

少了个图

面试题:

1 主从复制的原理

2 读取分离的实现方式: 脚本,amoeba实现,mycat实现

通过amoeba代理服务器,实现只在主服务器上写,只在从服务器上读;

主数据库处理事务性查询,从数据库处理select 查询;

数据库复制被用来把事务查询导致的变更同步的集群中的从数据库

3如何查看主从复制时候否成功?

在从服务器上内输入 show slave status\G 查看主从信息查看里面有IO线程的状态信息,还有master服务器的IP地址、端口事务开始号。

当 Slave_IO_Running和Slave_SQL_Running都是YES时 ,表示主从同步状态成功

4 如果slave_IO_running no 排查思路?

大概率是配置文件出错

首先排查网络问题,使用ping 命令查看从服务器是否能与主服务器通信

再查看防火墙和核心防护是否关闭(增强功能)

接着查看从服务slave是否开启

两个从服务器的server-id 是否相同导致只能连接一台

master_log_file master_log_pos的值跟master值是否一致

5 show slave status\G;能看到的信息有哪些

IO和sql的线程状态信息

MASTER服务的ip 地址,端口事务开始的位置

最近一次的错误信息,和错误的位置

最近一次IO 报错信息

最近i一次sql的报错信息

6 主从复制的延迟如何解决?

主服务器的负载过大,被多个睡眠或 僵尸线程占用  导致系统负载过大,从库硬件比主库差,导致复制延迟

主从复制单线程,如果主库写作并发太大,来不及传送到从库,就会到导致延迟

慢sql语句过多

网络延迟

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/140640.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

◢Django 自写分页与使用

目录 1、设置分页样式,并展示到浏览器 2、模拟页码 3、生成分页 4、数据显示 5、上一页下一页 6、数据库的数据分页 7、封装分页 8、使用封装好的分页 建立好app后&#xff0c;设置路径path(in2/,views.in2)&#xff0c;视图def in2(request): &#xff0c;HTML: in2.html…

【C++】类和对象(2)--构造函数

目录 一 概念 二 构造函数特性 三 默认构造函数 一 概念 对于以下Date类&#xff1a; class Date { public:void Init(int year, int month, int day){_year year;_month month;_day day;}void Print(){cout << _year << "-" << _month <…

CCLink转Modbus TCP网关_MODBUS网口设置

兴达易控CCLink转Modbus TCP网关是一种用于连接CCLink网络和Modbus TCP网络的设备。它提供了简单易用的MODBUS网口设置&#xff0c;可以帮助用户轻松地配置和管理网络连接 1 、网关做为MODBUS主站 &#xff08;1&#xff09;将电脑用网线连接至网关的P3网口上。 &#xff08;…

stm32 WIFI模块_8266使用

使用以上配置可以正常回应&#xff0c;其中无论勾选或者不勾选DTR/RTS都可以得到正常回应 ATCWMODE?表示查询当前WiFi状态是处于热点模式&#xff08;AP模式&#xff09;或者是连接其他WiFi的那个模式。通过图片看出这个符号不能省略。 设置AP热点命令格式&#xff1a;ATCWSAP…

力扣刷题-二叉树-二叉树的层序遍历(相关题目总结)

思路 层序遍历一个二叉树。就是从左到右一层一层的去遍历二叉树。这种遍历的方式和我们之前讲过的都不太一样。 需要借用一个辅助数据结构即队列来实现&#xff0c;队列先进先出&#xff0c;符合一层一层遍历的逻辑&#xff0c;而用栈先进后出适合模拟深度优先遍历也就是递归的…

超级干货:光纤知识总结最全的文章

你们好&#xff0c;我的网工朋友。 光纤已经是远距离有线信号传输的主要手段&#xff0c;而安装、维护光纤也是很多人网络布线的基本功。 在网络布线中&#xff0c;通常室外楼宇间幢与幢之间使用的是光缆&#xff0c;室内楼宇内部大都使用的是以太网双绞线&#xff0c;也有使用…

【Git】第二篇:基本操作(创建本地仓库)

我们知道&#xff0c;git是一个版本控制器&#xff0c;可以帮我们控制管理电脑上所有格式的文档。 而我们需要使用git管理文件的时候&#xff0c;我们必须将这些文件放到git仓库中&#xff0c;只有在git仓库中的文件才可以被我们的git追踪管理 创建本地仓库 创建本地仓库是需…

Apache Airflow (五) :DAG调度触发时间

&#x1f3e1; 个人主页&#xff1a;IT贫道_大数据OLAP体系技术栈,Apache Doris,Clickhouse 技术-CSDN博客 &#x1f6a9; 私聊博主&#xff1a;加入大数据技术讨论群聊&#xff0c;获取更多大数据资料。 &#x1f514; 博主个人B栈地址&#xff1a;豹哥教你大数据的个人空间-豹…

教育局档案室智慧档案库房建设方案

教育局档案室智慧档案库房建设是指教育局为了更好地保存和管理学校、教师、学生等相关档案资料&#xff0c;以及保证这些档案资料的安全性、可靠性和完整性&#xff0c;而建设的一个专门的存储、管理和保护档案资料的场所。 专久智能提供的教育局档案库房建设方案从以下几个方面…

基于蝴蝶算法优化概率神经网络PNN的分类预测 - 附代码

基于蝴蝶算法优化概率神经网络PNN的分类预测 - 附代码 文章目录 基于蝴蝶算法优化概率神经网络PNN的分类预测 - 附代码1.PNN网络概述2.变压器故障诊街系统相关背景2.1 模型建立 3.基于蝴蝶优化的PNN网络5.测试结果6.参考文献7.Matlab代码 摘要&#xff1a;针对PNN神经网络的光滑…

PCL安装与使用

1 apt安装 ubuntu20.04及以上版本下可以直接通过apt方式安装pcl编译好的二进制文件,二进制安装的版本为1.10。 sudo apt update sudo apt install libpcl-dev 2 源码安装 在pcl的github上下载对应的版本进行安装&#xff1a; https://github.com/PointCloudLibrary/pcl/rel…

分组取每组数据的最大值和最小值的方法思路,为类似场景的数据分析提取提供思路,例如提取宗地内建筑的最高层数等可参考此方法思路

目录 一、实现效果 二、实现过程 1.读取并剔除无效数据 2.数据分组 3.提取最大值 4.提取最小值 三、总结 使用FME实现批量分组取每组数据的最大值和最小值&#xff0c;为类似场景的数据分析提取提供思路&#xff0c;例如提取宗地内建筑的最高层数等可参考此方法思路。关…

酉矩阵(Unitary Matrix)

对于n阶复数矩阵A&#xff0c;如果&#xff0c;其中表示矩阵A的共轭转置&#xff0c;为单位矩阵&#xff0c;那么就称A为酉矩阵。 对于酉矩阵&#xff0c; 如果酉矩阵的元素都是实数&#xff0c;那么该矩阵就是正交矩阵。

74hc165 编程注意事项

74hc165 是一个并行输入转串行输出的io 扩展芯片&#xff0c;支持级联。 74HC165 的工作原理基于移位寄存器的设计。它通过四个输入引脚( SER, SRCLK, RCLK, OE)来实现数据的串行输入、并行输出。在时钟信号的驱动下&#xff0c;数据逐位地从串行输入引脚SER进入寄存器。每次时…

计算复杂性理论(一)图灵机

计算复杂性理论&#xff08;一&#xff09;图灵机 一台 k-带图灵机&#xff08;TM&#xff09;M 有 k-条带子。第一条带子称为输入带&#xff0c;用来存放输入数据&#xff0c;输入带是只读带。其余 k−1 条带子是工作带&#xff0c;既可以从工作带上读信息&#xff0c;也可以…

Hafnium之工程目录结构介绍

安全之安全(security)博客目录导读 Hafnium存储库包含Hafnium源代码以及与集成测试和单元测试相关的测试代码。为了帮助集成测试,存储库还包含一个用于分区的小型客户端库,以及构建和运行测试所需的预构建工具二进制文件。构建系统由gn支持。 每个平台都有一个单独的…

如何学习VBA:3.2.7 工作簿的操作引申

我给VBA的定义&#xff1a;VBA是个人小型自动化处理的有效工具。利用好了&#xff0c;可以大大提高自己的劳动效率&#xff0c;而且可以提高数据处理的准确度。我推出的VBA系列教程共九套和一部VBA汉英手册&#xff0c;现在已经全部完成&#xff0c;希望大家利用、学习。 如果…

【PIE-Engine 数据资源】全球250米LAI产品

文章目录 一、 简介二、描述三、波段四、示例代码参考资料 一、 简介 数据名称全球250米LAI产品时间范围2015年空间范围全球数据来源北京师范大学肖志强教授团队代码片段var images pie.ImageCollection(“BNU/LAI/GLOBAL-250”) 二、描述 全球 250 米叶面指数产品由北京师范…

mNetAssist网络调试助手编译

1.现在的问题 很多都是用百度网盘下载&#xff0c;访问github才能下载源码。 2.码云下载地址 这个已经是7年前编辑的了&#xff0c;是从github上复制到码云的。 cheni/mNetAssist 3.下载后用QT编译 图示中的两行要注释掉&#xff0c;用//&#xff0c;作者也有备注QT4.8要用…