那些年背过的面试题——MySQL篇

本文是技术人面试系列 MySQL 篇,面试中关于 MySQL 都需要了解哪些基础?一文带你详细了解,欢迎收藏!

WhyMysql?

NoSQL 数据库四大家族

  • 列存储 Hbase

  • K-V 存储 Redis

  • 图像存储 Neo4j

  • 文档存储 MongoDB

  • 云存储 OSS

海量 Aerospike

Aerospike(简称 AS)是一个分布式,可扩展的键值存储的 NoSQL 数据库。T 级别大数据高并发的结构化数据存储,采用混合架构,索引存储在内存中,而数据可存储在机械硬盘 (HDD) 或固态硬盘(SSD) 上,读写操作达微妙级,99% 的响应可在 1 毫秒内实现。

Aerospike 作为一个大容量的 NoSql 解决方案,适合对容量要求比较大,QPS 相对低一些的场景,主要用在广告行业,个性化推荐厂告是建立在了和掌握消费者独特的偏好和习性的基础之上,对消费者的购买需求做出准确的预测或引导,在合适的位置、合适的时间,以合适的形式向消费者呈现与其需求高度吻合的广告,以此来促进用户的消费行为。

(ETL 数据仓库技术)抽取(extract)、转换(transform)、加载(load)

  • 用户行为日志收集系统收集日志之后推送到 ETL 做数据的清洗和转换

  • 把 ETL 过后的数据发送到推荐引擎计算每个消费者的推荐结果,其中推荐逻辑包括规则和算法两部分

  • 收集用户最近浏览、最长停留等特征,分析商品相似性、用户相似性、相似性等算法。

  • 把推荐引擎的结果存入 Aerospike 集群中,并提供给广告投放引擎实时获取

    分别通过 HDFS 和 HBASE 对日志进行离线和实时的分析,然后把用户画像的标签 (tag : 程序猿、宅男…) 结果存入高性能的 Nosql 数据库 Aerospike 中,同时把数据备份到异地数据中心。前端广告投放请求通过决策引擎(投放引擎)向用户画像数据库中读取相应的用户画像数据,然后根据竞价算法出价进行竞价。竞价成功之后就可以展现广告了。而在竞价成功之后,具体给用户展现什么样的广告,就是有上面说的个性化推荐广告来完成的。

图谱 Neo4j

Neo4j 是一个开源基于 java 开发的图形 noSql 数据库,它将结构化数据存储在图中而不是表中。它是一个嵌入式的、基于磁盘的、具备完全的事务特性的 Java 持久化引擎。程序数据是在一个面向对象的、灵活的网络结构下,而不是严格的表中,但具备完全的事务特性、企业级的数据库的所有好处。

一种基于图的数据结构,由节点 (Node) 和边 (Edge) 组成。其中节点即实体,由一个全局唯一的 ID 标示,边就是关系用于连接两个节点。通俗地讲,知识图谱就是把所有不同种类的信息,连接在一起而得到的一个关系网络。知识图谱提供了从 “关系” 的角度去分析问题的能力。

互联网、大数据的背景下,谷歌、百度、搜狗等搜索引擎纷纷基于该背景,创建自己的知识图 Knowledge Graph、知心和知立方,主要用于改进搜索质量。

自己项目主要用作好友推荐,图数据库 (Graph database) 指的是以图数据结构的形式来存储和查询数据的数据库。关系图谱中,关系的组织形式采用的就是图结构,所以非常适合用图库进行存储。

  • 优势总结:

    • 性能上,使用 cql 查询,对长程关系的查询速度快

    • 擅于发现隐藏的关系,例如通过判断图上两点之间有没有走的通的路径,就可以发现事物间的关联

// 查询三层级关系节点如下:with可以将前面查询结果作为后面查询条件match (na:Person)-[re]-(nb:Person) where na. WITH na,re,nb match (nb:Person)- [re2:Friends]->(nc:Person) return na,re,nb,re2,nc// 直接拼接关系节点查询match data=(na:Person{name:"范闲"})-[re]->(nb:Person)-[re2]->(nc:Person) return data// 使用深度运算符显然使用以上方式比较繁琐,可变数量的关系->节点可以使用-[:TYPE*minHops..maxHops]-。match data=(na:Person{name:"范闲"})-[*1..2]-(nb:Person) return data

文档 MongoDB

MongoDB 是一个基于分布式文件存储的数据库,是非关系数据库中功能最丰富、最像关系数据库的。在高负载的情况下,通过添加更多的节点,可以保证服务器性能。由 C++ 编写,可以为 WEB 应用提供可扩展、高性能、易部署的数据存储解决方案。

什么是 BSON

{key:value,key2:value2} 和 Json 类似,是一种二进制形式的存储格式,支持内嵌的文档对象和数组对象,但是 BSON 有 JSON 没有的一些数据类型,比如 value 包括字符串, double,Array,DateBSON 可以做为网络数据交换的一种存储形式, 它的优点是灵活性高,但它的缺点是空间利用率不是很理想。

BSON 有三个特点:轻量性、可遍历性、高效性

/* 查询 find() 方法可以传入多个键(key),每个键(key)以逗号隔开*/
db.collection.find({key1:value1, key2:value2}).pretty()
/* 更新 $set :设置字段值 $unset :删除指定字段 $inc:对修改的值进行自增*/
db.collection.update({where},{$set:{字段名:值}},{multi:true})
/* 删除 justOne :如果设为true,只删除一个文档,默认false,删除所有匹配条件的文档*/
db.collection.remove({where}, {justOne: <boolean>, writeConcern: <回执> } )

优点:

  • 文档结构的存储方式,能够更便捷的获取数据。

    对于一个层级式的数据结构来说,使用扁平式的,表状的结构来查询保存数据非常的困难。

  • 内置 GridFS,支持大容量的存储。

    GridFS 是一个出色的分布式文件系统,支持海量的数据存储,满足对大数据集的快速范围查询。

  • 性能优越

    千万级别的文档对象,近 10G 的数据,对有索引的 ID 的查询 不会比 mysql 慢,而对非索引字段的查询,则是全面胜出。 mysql 实际无法胜任大数据量下任意字段的查询,而 mongodb 的查询性能实在牛逼。写入性能同样很令人满意,同样写入百万级别的数据,mongodb 基本 10 分钟以下可以解决。

缺点:

  • 不支持事务

  • 磁盘占用空间大

MySQL 8.0 版本

  1. 性能: MySQL 8.0 的速度要比 MySQL 5.7 快 2 倍。

  2. NoSQL: MySQL 从 5.7 版本开始提供 NoSQL 存储功能,在 8.0 版本中 nosql 得到了更大的改进。

  3. 窗口函数: 实现若干新的查询方式。窗口函数与 SUM()、COUNT() 这种集合函数类似,但它不会将多行查询结果合并为一行,而是将结果放回多行当中,即窗口函数不需要 GROUP BY。

  4. 隐藏索引: 在 MySQL 8.0 中,索引可以被 “隐藏” 和“显示”。当对索引进行隐藏时,它不会被查询优化器所使用。我们可以使用这个特性用于性能调试,例如我们先隐藏一个索引,然后观察其对数据库的影响。如果数据库性能有所下降,说明这个索引是有用的,然后将其 “恢复显示” 即可;如果数据库性能看不出变化,说明这个索引是多余的,可以考虑删掉。

云存储

使用步骤

1、开通服务

2、创建存储空间

3、上传文件、下载文件、删除文件

4、域名绑定、日志记录

5、根据开放接口进行鉴权访问

功能

图片编辑(裁剪、模糊、水印)

视频截图

音频转码、视频修复

CDN 加速

对象存储 OSS 与阿里云 CDN 服务结合,可优化静态热点文件下载加速的场景(即同一地区大量用户同时下载同一个静态文件的场景)。可以将 OSS 的存储空间(Bucket)作为源站,利用阿里云 CDN 将源内容发布到边缘节点。当大量终端用户重复访问同一文件时,可以直接从边缘节点获取已缓存的数据,提高访问的响应速度。

FastDFS

开源的轻量级分布式文件系统。它对文件进行管理,功能包括:文件存储、文件同步、文件访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。使用 FastDFS 很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。如相册网站、视频网站等。

扩展能力: 支持水平扩展,可以动态扩容;

高可用性: 一是整个文件系统的可用性,二是数据的完整和一致性;

弹性存储: 可以根据业务需要灵活地增删存储池中的资源,而不需要中断系统运行。

特性

  • 和流行的 web server 无缝衔接,FastDFS 已提供 apache 和 nginx 扩展模块

  • 文件 ID 由 FastDFS 生成,作为文件访问凭证,FastDFS 不需要传统的 name server

  • 分组存储,灵活简洁、对等结构,不存在单点

  • 文件不分块存储,上传的文件和 OS 文件系统中的文件一一对应

  • 中、小文件均可以很好支持,支持海量小文件存储

  • 支持相同内容的文件只保存一份,节约磁盘空间

  • 支持多块磁盘,支持单盘数据恢复

  • 支持在线扩容 支持主从文件

  • 下载文件支持多线程方式,支持断点续传

组成

  • 客户端(client)

    通过专有接口,使用 TCP/IP 协议与跟踪器服务器或存储节点进行数据交互。

  • 跟踪器(tracker)

    Trackerserver 作用是负载均衡和调度,通过 Tracker server 在文件上传时可以根据策略找到文件上传的地址。Tracker 在访问上起负载均衡的作用。

  • 存储节点(storage)

    Storageserver 作用是文件存储,客户端上传的文件最终存储在 Storage 服务器上,Storage server 没有实现自己的文件系统而是利用操作系统的文件系统来管理文件。存储节点中的服务器均可以随时增加或下线而不会影响线上服务。

上传

下载

断点续传

续传涉及到的文件大小 MD5 不会改变。续传流程与文件上传类似,先定位到源 storage,完成完整或部分上传,再通过 binlog 进行同 group 内 server 文件同步。

配置优化

配置文件:tracker.conf 和 storage.conf

// FastDFS采用内存池的做法。 
// v5.04对预分配采用增量方式,tracker一次预分配 1024个,storage一次预分配256个。 
max_connections = 10240// 根据实际需要将 max_connections 设置为一个较大的数值,比如 10240 甚至更大。
// 同时需要将一个进程允许打开的最大文件数调大
vi /etc/security/limits.conf 
重启系统生效 
* soft nofile 65535 * hard nofile 65535

避免重复

如何避免文件重复上传 解决方案 上传成功后计算文件对应的 MD5 然后存入 MySQL, 添加文件时把**文件 MD5 和之前存入 MYSQL 中的存储的信息对比 。**DigestUtils.md5DigestAsHex(bytes)。

事务

1、事务 4 大特性

**事务 4 大特性:**原子性、一致性、隔离性、持久性

原⼦性: 事务是最⼩的执行单位,不允许分割。事务的原⼦性确保动作要么全部完成,要么全不执行

一致性: 执行事务前后,数据保持⼀致,多个事务对同⼀个数据读取的结果是相同的;

隔离性: 并发访问数据库时,⼀个⽤户的事务不被其他事务所⼲扰,各并发事务之间数据库是独⽴的;

持久性: ⼀个事务被提交之后。它对数据库中数据的改变是持久的,即使数据库发⽣故障也不应该对其有任何影响。

实现保证:

MySQL 的存储引擎 InnoDB 使用重做日志保证一致性与持久性,回滚日志保证原子性,使用各种锁来保证隔离性。

2、事务隔离级别

**读未提交:**最低的隔离级别,允许读取尚未提交的数据变更,可能会导致脏读、幻读或不可重复读。

**读已提交:**允许读取并发事务已经提交的数据,可以阻止脏读,但是幻读或不可重复读仍有可能发⽣。

**可重复读:**同⼀字段的多次读取结果都是⼀致的,除非数据是被本身事务自己所修改,可以阻止脏读和不可重复读,会有幻读。

**串行化:**最⾼的隔离级别,完全服从 ACID 的隔离级别。所有的事务依次逐个执行,这样事务之间就完全不可能产⽣⼲扰。

3、默认隔离级别 - RR

**默认隔离级别:**可重复读;

同⼀字段的多次读取结果都是⼀致的,除非数据是被本身事务自己所修改;

可重复读是有可能出现幻读的,如果要保证绝对的安全只能把隔离级别设置成 SERIALIZABLE;这样所有事务都只能顺序执行,自然不会因为并发有什么影响了,但是性能会下降许多。

第二种方式,使用 MVCC 解决快照读幻读问题(如简单 select),读取的不是最新的数据。维护一个字段作为 version,这样可以控制到每次只能有一个人更新一个版本。

work_threads = 4 
// 说明:为了避免CPU上下文切换的开销,以及不必要的资源消耗,不建议将本参数设置得过大。
// 公式为: 
work_threads + (reader_threads + writer_threads) = CPU数

第三种方式,如果需要读最新的数据,可以通过 GapLock+Next-KeyLock 可以解决当前读幻读问题,

// 对于单盘挂载方式,磁盘读写线程分 别设置为 1即可 
// 如果磁盘做了RAID,那么需要酌情加大读写线程数,这样才能最大程度地发挥磁盘性能disk_rw_separated:磁盘读写是否分离 disk_reader_threads:单个磁盘读线程数 disk_writer_threads:单个磁盘写线程数

4、RR 和 RC 使用场景

事务隔离级别 RC(read commit) 和 RR(repeatable read)两种事务隔离级别基于多版本并发控制 MVCC(multi-version concurrency control)来实现。

5、行锁,表锁,意向锁

InnoDB 支持行级锁 (row-level locking) 和表级锁, 默认为行级锁

InnoDB 按照不同的分类的锁:

共享 / 排它锁 (Shared and Exclusive Locks):行级别锁,

意向锁 (Intention Locks),表级别锁

间隙锁 (Gap Locks),锁定一个区间

记录锁 (Record Locks),锁定一个行记录

表级锁:(串行化)

Mysql 中锁定粒度最大的一种锁,对当前操作的整张表加锁,实现简单 ,资源消耗也比较少,加锁快,不会出现死锁 。其锁定粒度最大,触发锁冲突的概率最高,并发度最低,MyISAM 和 InnoDB 引擎都支持表级锁。

行级锁:(RR、RC)

Mysql 中锁定 粒度最小 的一种锁,只针对当前操作的行进行加锁。 行级锁能大大减少数据库操作的冲突。其加锁粒度最小,并发度高,但加锁的开销也最大,加锁慢,会出现死锁。 InnoDB 支持的行级锁,包括如下几种:

记录锁(Record Lock): 对索引项加锁,锁定符合条件的行。其他事务不能修改和删除加锁项;

间隙锁(Gap Lock): 对索引项之间的 “间隙” 加锁,锁定记录的范围,不包含索引项本身,其他事务不能在锁范围内插入数据。

Next-key Lock: 锁定索引项本身和索引范围。即 Record Lock 和 Gap Lock 的结合。可解决幻读问题。

InnoDB 支持多粒度锁(multiple granularity locking),它允许行级锁与表级锁共存,而意向锁就是其中的一种表锁。

共享锁( shared lock, S )锁允许持有锁读取行的事务。加锁时将自己和子节点全加 S 锁,父节点直到表头全加 IS 锁

排他锁( exclusive lock, X )锁允许持有锁修改行的事务。 加锁时将自己和子节点全加 X 锁,父节点直到表头全加 IX 锁

意向共享锁(intention shared lock, IS):事务有意向对表中的某些行加共享锁(S 锁)

意向排他锁(intention exclusive lock, IX):事务有意向对表中的某些行加排他锁(X 锁)

6、MVCC 多版本并发控制

MVCC 是一种多版本并发控制机制,通过事务的可见性看到自己预期的数据,能降低其系统开销。(RC 和 RR 级别工作)

InnoDB 的 MVCC, 是通过在每行记录后面保存系统版本号 (可以理解为事务的 ID),每开始一个新的事务,系统版本号就会自动递增,事务开始时刻的系统版本号会作为事务的 ID。这样可以确保事务读取的行,要么是在事务开始前已经存在的,要么是事务自身插入或者修改过的,防止幻读的产生。

1.MVCC 手段只适用于 Msyql 隔离级别中的读已提交(Read committed)和可重复读(Repeatable Read).

2.Read uncimmitted 由于存在脏读,即能读到未提交事务的数据行,所以不适用 MVCC.

  1. 简单的 select 快照度不会加锁,删改及 select for update 等需要当前读的场景会加锁

原因是 MVCC 的创建版本和删除版本只要在事务提交后才会产生。客观上,mysql 使用的是乐观锁的一整实现方式,就是每行都有版本号,保存时根据版本号决定是否成功。Innodb 的 MVCC 使用到的快照存储在 Undo 日志中,该日志通过回滚指针把一个数据行所有快照连接起来。

版本链

在 InnoDB 引擎表中,它的聚簇索引记录中有两个必要的隐藏列:

trx_id

这个 id 用来存储的每次对某条聚簇索引记录进行修改的时候的事务 id。

roll_pointer

每次对哪条聚簇索引记录有修改的时候,都会把老版本写入 undo 日志中。这个 roll_pointer 就是存了一个指针,它指向这条聚簇索引记录的上一个版本的位置,通过它来获得上一个版本的记录信息。(注意插入操作的 undo 日志没有这个属性,因为它没有老版本)

每次修改都会在版本链中记录。SELECT 可以去版本链中拿记录,这就实现了读 - 写,写 - 读的并发执行,提升了系统的性能。

索引

1、Innodb 和 Myisam 引擎

**Myisam:**支持表锁,适合读密集的场景,不支持外键,不支持事务,索引与数据在不同的文件

**Innodb:**支持行、表锁,默认为行锁,适合并发场景,支持外键,支持事务,索引与数据同一文件

2、哈希索引

哈希索引用索引列的值计算该值的 hashCode,然后在 hashCode 相应的位置存执该值所在行数据的物理位置,因为使用散列算法,因此访问速度非常快,但是一个值只能对应一个 hashCode,而且是散列的分布方式,因此哈希索引不支持范围查找和排序的功能。

3、B + 树索引

优点:

B + 树的磁盘读写代价低,更少的查询次数,查询效率更加稳定,有利于对数据库的扫描

B + 树是 B 树的升级版,B + 树只有叶节点存放数据,其余节点用来索引。索引节点可以全部加入内存,增加查询效率,叶子节点可以做双向链表,从而提高范围查找的效率,增加的索引的范围。

在大规模数据存储的时候,红黑树往往出现由于树的深度 过大而造成磁盘 IO 读写过于频繁,进而导致效率低下的情况。所以,只要我们通过某种较好的树结构减少树的结构尽量减少树的高度,B 树与 B + 树可以有多个子女,从几十到上千,可以降低树的高度。

磁盘预读原理:将一个节点的大小设为等于一个页,这样每个节点只需要一次 I/O 就可以完全载入。为了达到这个目的,在实际实现 B-Tree 还需要使用如下技巧:每次新建节点时,直接申请一个页的空间,这样就保证一个节点物理上也存储在一个页里,加之计算机存储分配都是按页对齐的,就实现了一个 node 只需一次 I/O。

4、创建索引

CREATE  [UNIQUE | FULLTEXT]  INDEX  索引名 ON  表名(字段名) [USING 索引方法];
说明:UNIQUE:可选。表示索引为唯一性索引。FULLTEXT:可选。表示索引为全文索引。INDEX和KEY:用于指定字段为索引,两者选择其中之一就可以了,作用是一样的。索引名:可选。给创建的索引取一个新名称。字段名1:指定索引对应的字段的名称,该字段必须是前面定义好的字段。注:索引方法默认使用B+TREE。

5、聚簇索引和非聚簇索引

**聚簇索引:**将数据存储与索引放到了一块,索引结构的叶子节点保存了行数据(主键索引)

**非聚簇索引:**将数据与索引分开存储,索引结构的叶子节点指向了数据对应的位置(辅助索引)

聚簇索引的叶子节点就是数据节点,而非聚簇索引的叶子节点仍然是索引节点,只不过有指向对应数据块的指针。

6、最左前缀问题

最左前缀原则主要使用在联合索引中,联合索引的 B+Tree 是按照第一个关键字进行索引排列的。

联合索引的底层是一颗 B + 树,只不过联合索引的 B + 树节点中存储的是键值。由于构建一棵 B + 树只能根据一个值来确定索引关系,所以数据库依赖联合索引最左的字段来构建。

采用 >、< 等进行匹配都会导致后面的列无法走索引,因为通过以上方式匹配到的数据是不可知的。

SQL 查询

1、SQL 语句的执行过程

查询语句:

select id from table_xx where id > 100 for update;select id from table_xx where id > 100 lock in share mode;

结合上面的说明,我们分析下这个语句的执行流程:

①通过客户端 / 服务器通信协议与 MySQL 建立连接。并查询是否有权限

②Mysql8.0 之前看是否开启缓存,开启了 Query Cache 且命中完全相同的 SQL 语句,则将查询结果直接返回给客户端;

③由解析器进行语法语义解析,并生成解析树。如查询是 select、表名 tb_student、条件是 id=‘1’

④查询优化器生成执行计划。根据索引看看是否可以优化

⑤查询执行引擎执行 SQL 语句,根据存储引擎类型,得到查询结果。若开启了 Query Cache,则缓存,否则直接返回。

2、回表查询和覆盖索引

普通索引(唯一索引 + 联合索引 + 全文索引)需要扫描两遍索引树

(1)先通过普通索引定位到主键值 id=5;

(2)在通过聚集索引定位到行记录;

这就是所谓的回表查询,先定位主键值,再定位行记录,它的性能较扫一遍索引树更低。

**覆盖索引:**主键索引 == 聚簇索引 == 覆盖索引

如果 where 条件的列和返回的数据在一个索引中,那么不需要回查表,那么就叫覆盖索引。

**实现覆盖索引:**常见的方法是,将被查询的字段,建立到联合索引里去。

3、Explain 及优化

参考:https://www.jianshu.com/p/8fab76bbf448

mysql> explain select * from staff;
+----+-------------+-------+------+---------------+------+---------+------+------+-------+|
id | select_type | table | type | possible_keys | key  | key_len | ref  | rows | Extra |
+----+-------------+-------+------+---------------+------+---------+------+------+-------+|
1 | SIMPLE      | staff | ALL  | NULL          | 索引  | NULL    | NULL |    2 | NULL  |
+----+-------------+-------+------+---------------+------+---------+------+------+-------+
1 row in set

索引优化:

①最左前缀索引:like 只用于’string%',语句中的 = 和 in 会动态调整顺序

②唯一索引:唯一键区分度在 0.1 以上

③无法使用索引:!= 、is null 、 or、>< 、(5.7 以后根据数量自动判定) in 、not in

④联合索引:避免 select * ,查询列使用覆盖索引

select * from student  A where A.age='18' and A.name='张三';

语句优化:

①char 固定长度查询效率高,varchar 第一个字节记录数据长度

②应该针对 Explain 中 Rows 增加索引

③group/order by 字段均会涉及索引

④Limit 中分页查询会随着 start 值增大而变缓慢,通过子查询 + 表连接解决

select * from mytbl order by id limit 100000,10  
改进后的SQL语句如下:
select * from mytbl where id >= ( select id from mytbl order by id limit 100000,1 ) limit 10
select * from mytbl inner ori join (select id from mytbl order by id limit 100000,10) as tmp on tmp.id=ori.id;

⑤count 会进行全表扫描,如果估算可以使用 explain

⑥delete 删除表时会增加大量 undo 和 redo 日志, 确定删除可使用 trancate

表结构优化:

①单库不超过 200 张表

②单表不超过 500w 数据

③单表不超过 40 列

④单表索引不超过 5 个

数据库范式 :

①第一范式(1NF)列不可分割

②第二范式(2NF)属性完全依赖于主键 [消除部分子函数依赖]

③第三范式(3NF)属性不依赖于其它非主属性 [消除传递依赖]

配置优化:

配置连接数、禁用 Swap、增加内存、升级 SSD 硬盘

4、JOIN 查询

left join(左联接) 返回包括左表中的所有记录和右表中关联字段相等的记录

right join(右联接) 返回包括右表中的所有记录和左表中关联字段相等的记录

inner join(等值连接) 只返回两个表中关联字段相等的行

集群

1、主从复制过程

MySQl 主从复制:

  • 原理: 将主服务器的 binlog 日志复制到从服务器上执行一遍,达到主从数据的一致状态。

  • 过程: 从库开启一个 I/O 线程,向主库请求 Binlog 日志。主节点开启一个 binlog dump 线程,检查自己的二进制日志,并发送给从节点;从库将接收到的数据保存到中继日志(Relay log)中,另外开启一个 SQL 线程,把 Relay 中的操作在自身机器上执行一遍

  • 优点:

    • 作为备用数据库,并且不影响业务

    • 可做读写分离,一个写库,一个或多个读库,在不同的服务器上,充分发挥服务器和数据库的性能,但要保证数据的一致性

**binlog 记录格式:**statement、row、mixed

基于语句 statement 的复制、基于行 row 的复制、基于语句和行(mix)的复制。其中基于 row 的复制方式更能保证主从库数据的一致性,但日志量较大,在设置时考虑磁盘的空间问题。

2、数据一致性问题

“主从复制有延时”,这个延时期间读取从库,可能读到不一致的数据。

缓存记录写 key 法:

在 cache 里记录哪些记录发生过的写请求,来路由读主库还是读从库

异步复制:

在异步复制中,主库执行完操作后,写入 binlog 日志后,就返回客户端,这一动作就结束了,并不会验证从库有没有收到,完不完整,所以这样可能会造成数据的不一致。

半同步复制:

当主库每提交一个事务后,不会立即返回,而是等待其中一个从库接收到 Binlog 并成功写入 Relay-log 中才返回客户端,通过一份在主库的 Binlog,另一份在其中一个从库的 Relay-log,可以保证了数据的安全性和一致性。

全同步复制:

指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端。因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会收到严重的影响

3、集群架构

Keepalived + VIP + MySQL 主从 / 双主

当写节点 Master db1 出现故障时,由 MMM Monitor 或 Keepalived 触发切换脚本,将 VIP 漂移到可用的 Master db2 上。当出现网络抖动或网络分区时,MMM Monitor 会误判,严重时来回切换写 VIP 导致集群双写,当数据复制延迟时,应用程序会出现数据错乱或数据冲突的故障。有效避免单点失效的架构就是采用共享存储,单点故障切换可以通过分布式哨兵系统监控。

**架构选型:**MMM 集群 -> MHA 集群 -> MHA+Arksentinel。

4、故障转移和恢复

转移方式及恢复方法

虚拟IP或DNS服务 (Keepalived +VIP/DNS  和 MMM 架构)

问题:在虚拟 IP 运维过程中,刷新 ARP 过程中有时会出现一个 VIP 绑定在多台服务器同时提供连接的问题。这也是为什么要避免使用 Keepalived+VIP 和 MMM 架构的原因之一,因为它处理不了这类问题而导致集群多点写入。

提升备库为主库(MHA、QMHA)

尝试将原 Master 设置 read_only 为 on,避免集群多点写入。借助 binlog server 保留 Master 的 Binlog;当出现数据延迟时,再提升 Slave 为新 Master 之前需要进行数据补齐,否则会丢失数据。

面试题

分库分表

如何进行分库分表

分表用户 id 进行分表,每个表控制在 300 万数据。

分库根据业务场景和地域分库,每个库并发不超过 2000

Sharding-jdbc 这种 client 层方案的优点在于不用部署,运维成本低,不需要代理层的二次转发请求,性能很高,但是各个系统都需要耦合 Sharding-jdbc 的依赖,升级比较麻烦

Mycat 这种 proxy 层方案的缺点在于需要部署,自己运维一套中间件,运维成本高,但是好处在于对于各个项目是透明的,如果遇到升级之类的都是自己中间件那里搞就行了

水平拆分:一个表放到多个库,分担高并发,加快查询速度

  • id 保证业务在关联多张表时可以在同一库上操作

  • range 方便扩容和数据统计

  • hash 可以使得数据更加平均

垂直拆分: 一个表拆成多个表,可以将一些冷数据拆分到冗余库中

不是写瓶颈优先进行分表

  • 分库数据间的数据无法再通过数据库直接查询了。会产生深分页的问题

  • 分库越多,出现问题的可能性越大,维护成本也变得更高。

  • 分库后无法保障跨库间事务,只能借助其他中间件实现最终一致性。

分库首先需考虑满足业务最核心的场景:

1、订单数据按用户分库,可以提升用户的全流程体验

2、超级客户导致数据倾斜可以使用最细粒度唯一标识进行 hash 拆分

3、按照最细粒度如订单号拆分以后,数据库就无法进行单库排重了

三个问题:

  • 富查询:采用分库分表之后,如何满足跨越分库的查询?使用 ES 的宽表

    借助分库网关 + 分库业务虽然能够实现多维度查询的能力,但整体上性能不佳且对正常的写入请求有一定的影响。业界应对多维度实时查询的最常见方式便是借助 ElasticSearch;

  • 数据倾斜:数据分库基础上再进行分表;

  • 分布式事务:跨多库的修改及多个微服务间的写操作导致的分布式事务问题?

  • 深分页问题:按游标查询,或者叫每次查询都带上上一次查询经过排序后的最大 ID;

如何将老数据进行迁移

双写不中断迁移

  • 线上系统里所有写库的地方,增删改操作,除了对老库增删改,都加上对新库的增删改;

  • 系统部署以后,还需要跑程序读老库数据写新库,写的时候需要判断 updateTime;

  • 循环执行,直至两个库的数据完全一致,最后重新部署分库分表的代码就行了;

系统性能的评估及扩容

和家亲目前有 1 亿用户:场景 10 万写并发,100 万读并发,60 亿数据量

设计时考虑极限情况,32 库 * 32 表~ 64 个表,一共 1000 ~ 2000 张表

  • 支持 3 万的写并发,配合 MQ 实现每秒 10 万的写入速度

  • 读写分离 6 万读并发,配合分布式缓存每秒 100 读并发

  • 2000 张表每张 300 万,可以最多写入 60 亿的数据

  • 32 张用户表,支撑亿级用户,后续最多也就扩容一次

动态扩容的步骤

  1. 推荐是 32 库 * 32 表,对于我们公司来说,可能几年都够了。

  2. 配置路由的规则,uid % 32 = 库,uid / 32 % 32 = 表

  3. 扩容的时候,申请增加更多的数据库服务器,呈倍数扩容

  4. 由 DBA 负责将原先数据库服务器的库,迁移到新的数据库服务器上去

  5. 修改一下配置,重新发布系统,上线,原先的路由规则变都不用变

  6. 直接可以基于 n 倍的数据库服务器的资源,继续进行线上系统的提供服务。

如何生成自增的 id 主键

  • 使用 redis 可以

  • 并发不高可以单独起一个服务,生成自增 id

  • 设置数据库 step 自增步长可以支撑水平伸缩

  • UUID 适合文件名、编号,但是不适合做主键

  • snowflake 雪花算法,综合了 41 时间(ms)10 机器、12 序列号(ms 内自增)

其中机器预留的 10bit 可以根据自己的业务场景配置。

线上故障及优化

更新失败 | 主从同步延时

以前线上确实处理过因为主从同步延时问题而导致的线上的 bug,属于小型的生产事故。

是这个么场景。有个同学是这样写代码逻辑的。先插入一条数据,再把它查出来,然后更新这条数据。在生产环境高峰期,写并发达到了 2000/s,这个时候,主从复制延时大概是在小几十毫秒。线上会发现,每天总有那么一些数据,我们期望更新一些重要的数据状态,但在高峰期时候却没更新。用户跟客服反馈,而客服就会反馈给我们。

我们通过 MySQL 命令:

show slave status

查看 Seconds_Behind_Master ,可以看到从库复制主库的数据落后了几 ms。

一般来说,如果主从延迟较为严重,有以下解决方案:

  • 分库,拆分为多个主库,每个主库的写并发就减少了几倍,主从延迟可以忽略不计。

  • 重写代码,写代码的同学,要慎重,插入数据时立马查询可能查不到。

  • 如果确实是存在必须先插入,立马要求就查询到,然后立马就要反过来执行一些操作,对这个查询设置直连主库或者延迟查询。主从复制延迟一般不会超过 50ms

应用崩溃 | 分库分表优化

我们有一个线上通行记录的表,由于数据量过大,进行了分库分表,当时分库分表初期经常产生一些问题。典型的就是通行记录查询中使用了深分页,通过一些工具如 MAT、Jstack 追踪到是由于 sharding-jdbc 内部引用造成的。

通行记录数据被存放在两个库中。如果没有提供切分键,查询语句就会被分发到所有的数据库中,比如查询语句是 limit 10、offset 1000,最终结果只需要返回 10 条记录,但是数据库中间件要完成这种计算,则需要 (1000+10)*2=2020 条记录来完成这个计算过程。如果 offset 的值过大,使用的内存就会暴涨。虽然 sharding-jdbc 使用归并算法进行了一些优化,但在实际场景中,深分页仍然引起了内存和性能问题。

这种在中间节点进行归并聚合的操作,在分布式框架中非常常见。比如在 ElasticSearch 中,就存在相似的数据获取逻辑,不加限制的深分页,同样会造成 ES 的内存问题。

业界解决方案:

方法一:全局视野法

(1)将 order by time offset X limit Y,改写成 order by time offset 0 limit X+Y

(2)服务层对得到的 N*(X+Y) 条数据进行内存排序,内存排序后再取偏移量 X 后的 Y 条记录

这种方法随着翻页的进行,性能越来越低。

方法二:业务折衷法 - 禁止跳页查询

(1)用正常的方法取得第一页数据,并得到第一页记录的 time_max

(2)每次翻页,将 order by time offset X limit Y,改写成 order by time where time>$time_max limit Y

以保证每次只返回一页数据,性能为常量。

方法三:业务折衷法 - 允许模糊数据

(1)将 order by time offset X limit Y,改写成 order by time offset X/N limit Y/N

方法四:二次查询法

(2)将 order by time offset X limit Y,改写成 order by time offset X/N limit Y

(3)找到最小值 time_min

(4)between 二次查询,order by time between timeminandtime_i_max

(5)设置虚拟 time_min,找到 time_min 在各个分库的 offset,从而得到 time_min 在全局的 offset

(6)得到了 time_min 在全局的 offset,自然得到了全局的 offset X limit Y

查询异常 | SQL 调优

分库分表前,有一段用用户名来查询某个用户的 SQL 语句:

select * from user where name = "xxx" and community="other";

为了达到动态拼接的效果,这句 SQL 语句被一位同事进行了如下修改。他的本意是,当 name 或者 community 传入为空的时候,动态去掉这些查询条件。这种写法,在 MyBaits 的配置文件中,也非常常见。大多数情况下,这种写法是没有问题的,因为结果集合是可以控制的。但随着系统的运行,用户表的记录越来越多,当传入的 name 和 community 全部为空时,悲剧的事情发生了:

select * from user where 1=1

数据库中的所有记录,都会被查询出来,载入到 JVM 的内存中。由于数据库记录实在太多,直接把内存给撑爆了。由于这种原因引起的内存溢出,发生的频率非常高,比如导入 Excel 文件时。

通常的解决方式是强行加入分页功能,或者对一些必填的参数进行校验

Controller 层

现在很多项目都采用前后端分离架构,所以 Controller 层的方法,一般使用 @ResponseBody 注解,把查询的结果,解析成 JSON 数据返回。这在数据集非常大的情况下,会占用很多内存资源。假如结果集在解析成 JSON 之前,占用的内存是 10MB,那么在解析过程中,有可能会使用 20M 或者更多的内存

因此,保持结果集的精简,是非常有必要的,这也是 DTO(Data Transfer Object)存在的必要。互联网环境不怕小结果集的高并发请求,却非常恐惧大结果集的耗时请求,这是其中一方面的原因。

Service 层

Service 层用于处理具体的业务,更加贴合业务的功能需求。一个 Service,可能会被多个 Controller 层所使用,也可能会使用多个 dao 结构的查询结果进行计算、拼装。

int getUserSize() {        
	List<User> users = dao.getAllUser();        
	return null == users ? 0 : users.size();
}

代码 review 中发现了定时炸弹,这种在数据量达到一定程度后,才会暴露问题。

ORM 层

比如使用 Mybatis 时,有一个批量导入服务,在 MyBatis 执行批量插入的时候,竟然产生了内存溢出,按道理这种插入操作是不会引起额外内存占用的,最后通过源码追踪到了问题。

这是因为 MyBatis 循环处理 batch 的时候,操作对象是数组,而我们在接口定义的时候,使用的是 List;当传入一个非常大的 List 时,它需要调用 List 的 toArray 方法将列表转换成数组(浅拷贝);在最后的拼装阶段,又使用了 StringBuilder 来拼接最终的 SQL,所以实际使用的内存要比 List 多很多。

事实证明,不论是插入操作还是查询动作,只要涉及的数据集非常大,就容易出现问题。由于项目中众多框架的引入,想要分析这些具体的内存占用,就变得非常困难。所以保持小批量操作和结果集的干净,是一个非常好的习惯。

‍‍

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/781414.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【Gin】项目搭建 一

环境准备 首先确保自己电脑安装了Golang 开始项目 1、初始化项目 mkdir gin-hello; # 创建文件夹 cd gin-hello; # 需要到刚创建的文件夹里操作 go mod init goserver; # 初始化项目&#xff0c;项目名称&#xff1a;goserver go get -u github.com/gin-gonic/gin; # 下载…

C++入门7——string类详解

目录 1.什么是string类&#xff1f; 2.string类对象的常见构造 2.1 string(); 2.2 string (const char* s); 2.3 string (const string& str); 2.4 string (const string& str, size_t pos, size_t len npos); 2.5 string (const char* s, size_t n); 2.7 验证…

模块一SpringBoot(一)

maven记得配置本地路径和镜像 IJ搭建 SpringIntiallizer--》将https://start.spring.io改成https://start.aliyun.com/ 项目结构 Spring有默认配置&#xff0c; application.properties会覆盖默认信息&#xff1a; 如覆盖端口号server.port8888

一个最简单的comsol斜坡稳定性分析例子——详细步骤

一个最简单的comsol斜坡稳定性分析例子——详细步骤 标准模型例子—详细步骤 线弹性模型下的地应力平衡预应力与预应变、土壤塑性和安全系数求解的辅助扫描

【深入理解JVM】关于Object o = new Object()

1. 解释一下对象的创建过程 “半初始化”状态通常指的是对象在内存分配后、但在完全初始化之前的一种状态。在Java中&#xff0c;虽然JVM的规范和设计努力避免对象处于这种不稳定的状态&#xff0c;但在多线程环境下&#xff0c;由于指令重排序等并发问题&#xff0c;仍有可能…

通义千问 2,大模型应用开发时的新选择

我在进行 AI 相关的开发中&#xff0c;最常用的模型是通义千问。本地开发的时候&#xff0c;使用 Ollama 来运行 qwen 模型。集成测试和线上环境&#xff0c;使用阿里云模型服务灵积上的通义千问模型。使用阿里云的好处是&#xff1a;模型服务的获取方便&#xff0c;稳定性好&a…

无人机5公里WiFi低延迟图传模组,抗干扰、长距离、低延迟,飞睿智能无线通信新标杆

在科技日新月异的今天&#xff0c;我们见证了无数通信技术的飞跃。从开始的电报、电话&#xff0c;到如今的4G、5G网络&#xff0c;再到WiFi的广泛应用&#xff0c;每一次技术的革新都极大地改变了人们的生活方式。飞睿智能5公里WiFi低延迟图传模组&#xff0c;它以其独特的优势…

GD32实战篇-双向数控BUCK-BOOST-BUCK降压理论基础

本文章基于兆易创新GD32 MCU所提供的2.2.4版本库函数开发 向上代码兼容GD32F450ZGT6中使用 后续项目主要在下面该专栏中发布&#xff1a; https://blog.csdn.net/qq_62316532/category_12608431.html?spm1001.2014.3001.5482 感兴趣的点个关注收藏一下吧! 电机驱动开发可以跳转…

Java多线程不会?一文解决——

方法一 新建类如MyThread继承Thread类重写run()方法再通过new MyThread类来新建线程通过start方法启动新线程 案例&#xff1a; class MyThread extends Thread {public MyThread(String name) {super(name);}Overridepublic void run() {for(int i0;i<10;i){System.out.…

kafka-3

Kafka 消费组 consumer-offsets-N 稀疏索引 Kafka集群 集群搭建 集群启动和验证 Topic的意义 Topic和Partition 分区 副本 集群操作指令 多分区&多副本 多分区消费组 Rebalance机制 Rebalance机制处理流程 Rebalance机制-Range Rebalance机制-RoudRobin Rebalance机制-St…

【Linux】在线求助命令--help,man page , info page

我们知道Linux有很多的命令&#xff0c;那LInux要不要背命令&#xff1f; 答案是背最常用的那些就行了 那有的时候我们想查询一些命令的详细用法该怎么办呢&#xff1f; 这里我给出3种方法 1.--help --help的使用方法很简单啊 要查询的命令 --help 我们看个例子 这里我只…

一览 Anoma 上的有趣应用概念

撰文&#xff1a;Tia&#xff0c;Techub News 本文来源香港Web3媒体&#xff1a;Techub News Anoma 的目标是为应用提供通用的意图机器接口&#xff0c;这意味着使用 Anoma&#xff0c;开发人员可以根据意图和分布式意图机编写应用&#xff0c;而不是根据事务和特定状态机进行…

java原子类

在Java中&#xff0c;原子类&#xff08;Atomic Classes&#xff09; 是位于java.util.concurrent.atomic包中的一组类&#xff0c;这些类提供了一些原子操作&#xff0c;用于在多线程环境下进行安全的并发编程。原子类利用了底层的硬件支持&#xff0c;确保操作的原子性和线程…

初阶数据结构 二叉树常用函数(二)

函数一 求二叉树第K层的节点个数 还是一样 我们假设 K就是等于一 如果说是一个空数的话就返回0 如果说有值的话就返回一个1就可以 假设这个这层既不为空 又不是第K层的话 那么就说明第K层肯定是子树下面 那么就说明是左右子树的第&#xff08;K-1&#xff09;层 那么只将…

谷哥剪映助手使用教程-剪映自动化批量视频剪辑软件-批量混剪素材替换

谷哥剪映助手是一款提高视频剪辑效率的软件&#xff0c;很多人问具体怎么使用&#xff0c;我会抽点时间把各个功能拆分开来&#xff0c;一个个介绍。 一、按组精准替换素材 该功能可以按组精确替换图片或视频素材&#xff0c;如果你草稿里只有一个素材需要替换&#xff0c;请…

【算法笔记自学】第 8 章 提高篇(2)——搜索专题

8.1深度优先搜索&#xff08;DFS&#xff09; #include <cstdio>const int MAXN 5; int n, m, maze[MAXN][MAXN]; bool visited[MAXN][MAXN] {false}; int counter 0;const int MAXD 4; int dx[MAXD] {0, 0, 1, -1}; int dy[MAXD] {1, -1, 0, 0};bool isValid(int …

docker中实现多机redis主从集群

redis主从集群是每个使用redis的小伙伴都必需知道的&#xff0c;那如何在docker中快速配置呢&#xff1f;这篇来教你快速上手&#xff0c;跟着复制完全就能用&#xff01;&#xff01; 1. 前置准备 1.1 docker安装 以防有小伙伴没预先安装docker&#xff0c;这里提供安装步骤…

驾校管理系统设计

驾校管理系统设计旨在提高驾校运营效率、学员管理、教练安排、考试预约、财务结算等方面的能力。以下是一个基本的设计框架&#xff0c;包括关键模块和数据表设计&#xff1a; 1. 系统架构设计 前端界面&#xff1a;提供给学员、教练和管理员使用的Web界面或移动应用&#xf…

CGAL计算凸包(OSG进行可视化)

目录 一、什么是凸包 二、运行步骤 1、安装依赖项 2、编译osg库 3、运行代码 4、运行截图 一、什么是凸包 凸包是计算几何中的一个基本概念,用来描述一个点集的最小凸包围形。具体来说,给定一个点集,凸包是包含该点集的最小凸多边形或凸多面体。 二维凸包:在二维平面…

# 三 JS的流程控制和函数

三 JS的流程控制和函数 3.1 JS分支结构 if结构 这里的if结构几乎和JAVA中的一样,需要注意的是 if()中的非空字符串会被认为是trueif()中的非零数字会被认为是true 代码 if(false){// 非空字符串 if判断为trueconsole.log(true) }else{console.log(false) } if(){// 长度为0…