1. 概述
锁 是计算机协调多个进程或线程 并发访问某一资源 的机制。在程序开发中会存在多线程同步的问题,当多个线程并发访问某个数据的时候,尤其是针对一些敏感数据(比如订单,金额等),我们就需要保证这个数据在任何时刻 最多只有一个线程在访问,保证数据的完整性和一致性。在开发过程中枷锁是为了保证数据的一致性,这个思想在数据库领域同样重要。
在数据库中,除传统的计算资源(cpu,ram,io等)的争用意外,数据也是一种供许多用户共享的资源。为了保证数据的一致性,需要对并发操作进行控制,因此产生了锁。同时锁机制也为实现mysql的各个隔离级别提供了保证。锁冲突也是影响数据库并发访问性能的一个重要因素。所以锁对数据库而言显得尤为重要,也更加复杂。
2. mysql并发事务访问相同记录
并发事务访问相同记录的情况大致可以划分为3中:
2.1 读读情况
读读这种情况,即并发事务相机 读取相同的记录。读取操作本身不会对记录有任何影响,并不会引起什么问题,所以允许这种情况的发生。
2.2 写写情况
写写情况,即并发事务相机对相同的记录做出改动。
在这种情况下会发生 脏写 问题,任何一种隔离级别都不允许这种问题发生。所以在多个未提交事务相继对一条记录做改动是,需要让他们 排队执行,这个排队的过程其实是通过锁来实现的。这个所谓的锁其实是一个内存中的结构,在事务执行前本来是没有锁的,也就是说一开始是没有 锁结构 和记录进行关联的。
当一个事务相对这条记录做改动时,首先会看看内存中有没有与这条记录关联的锁结构,当没有的时候就会在内存中生成一个 锁结构 与之关联。比如,事务T1要对这条记录做改动,就需要生成一个 锁结构 与之关联:
在锁结构里有很多信息,为了简化理解,只把两个比较重要的属性拿出来:
~ trx信息:代表这个锁结构是哪个事务生成的。
~ is_waiting:代表当前事务是否在等待。
当事务T1改动了这条记录后,就生成了一个锁结构与该记录关联,因为之前没有别的事务为这条记录枷锁,所以is_waiting属性就是false,我们把这个场景就称之为获取锁,或者加锁成功,然后可以继续执行操作了。
在事务T1提交之前,另一个事务T2也相对该记录做改动,那么先看看有没有锁结构与这条记录关联,发现有一个 锁结构 与之关联后,然后也生成了一个锁结构与这条记录关联,不过锁结构的is_waiting属性值为true,表示当前事务需要等待,我们把这个场景就称之为获取锁失败,如图所示:
在事务T1提交后,就会把该事务生成的锁结构释放掉,然后看看还有没有别的事务在等待获取锁,发现了事务T2还在等待获取锁,所以把事务T2对应的锁结构的is_waiting属性设置为false,然后把该事务对应的线程唤醒,让他继续执行,此时事务T2就算获取到锁了。
小结几种说法:
~ 不加锁
意思就是不需要在内存生成对应的锁结构,可以直接执行操作。
~ 获取锁成功,或者加锁成功
意思就是在内存中生成了对应的锁结构,而且锁结构的is_waiting属性为false,也就是十五可以继执行操作。
~ 获取锁失败,或者加锁失败,或者没有获取到锁
意思就是在内存中生成了对应的锁结构,不过锁结构的is_waiting属性为true,也就是事务需要等待,不可以继续执行。
2.3 读写 或 写读情况
读写或写读,及一个事务进行读取操作,另一个进行改动操作。这种情况下可能发生脏读,不可重复读,幻读的问题。
各个数据库厂商对 sql标准 的支持可能都不一样。比如mysql在repeatable read 隔离级别上就已经解决了幻读问题。
2.4 并发问题解决方案
怎么解决脏读,不可重复读,幻读这些问题呢?其实有两种可选的解决方案:
~ 方案一:读操作利用多版本并发控制(MVCC),写操作进行枷加锁。
所谓的MVCC,就是生成一个ReadView,通过ReadView找到符合条件的记录版本(历史版本由undo日志构建)。查询语句只能读到在生成ReadView之前 已提交事务所做的更改,在生成ReadView之前提交的事务或者之后才开启事务所做的更改是看不到的。而 写操作 肯定针对的是 最新版本的记录,读记录的历史版本和改动记录的最新版本本身并不冲突,也就是采用了MVCC时,读写操作并不冲突。
普通的select语句在read committed 和repeatable read 隔离级别下会使用到MVCC读取记录。在 read committed隔离级别下,一个事务在执行过程中每次执行select操作时都会生成一个ReadView,ReadView的存在本身就保证了 事务不可以读取到未提交的事务所做的更改,也就是避免了脏读现象;
在 repeatable read 隔离级别下,一个事务在执行过程中只有第一次执行select操作才会生成一个ReadView,之后的select操作都是 复用 这个ReadView,这样也就避免了不可重复读和幻读的问题。
~ 方案二:读写操作都采用 加锁 的方式。如果我们的一些业务场景不允许读取记录的旧版本,而是每次都必须区 读取记录的最新版本。比如,在银行存款的事务中,你需要先把账户的余额读出来,然后将其加上本次存款的数额,最后再写入到数据库中。再将账户余额取出来后,就不想让别的事务在访问该余额,直到本次存款事务执行完成,其他事务才可以访问账户的余额。这样在读取记录的时候就需要对其进行 加锁 操作,这样也就意味着 读操作 和 写操作 也像 写写操作 那样 排队执行。
脏读的产生是因为当前事务读取了另一个未提交的事务写的一条记录,如果另一个事务在写记录的时候就给这条记录加锁,那么当前事务就无法记录读取该记录了,所以也就不会有脏读问题产生了。
不可重复读的产生是因为当前事务先读取一条记录,另外一个事务对该记录做了改动之后并提交之后,当前事务再次读取时会获得不同的值,如果在当前事务读取记录时就给该记录加锁,那么另一个事务就无法修改记录,自然也不会发生不可重复读了。幻读问题的产生是因为档期那事务读取了一个范围的记录,然后另外的事务想向该范文内插入了新纪录,当前事务再次读取该范围的记录时发现了新插入的新纪录。采用加锁的方式解决幻读问题就有一些麻烦,因为当前事务在第一次读取记录时幻影记录并不存在,所以读取的时候加锁就有点尴尬。
小结对比:采用 MVCC 方式的话,读写操作彼此并不冲突,性能更高。
采用 加锁 的方式,读写操作彼此需要排队执行,影响性能。
一般情况下我们当然愿意采用MVCC来解决读写操作并发执行的问题,但是业务在某些特殊情况下,要求必须采用 加锁 的方式执行。下面就讲解mysql不同类别的锁。
3. 锁的不同角度分类
锁的分类图,如下:
3.1 从数据操作的类型划分:读锁,写锁
对于数据库中并发事务的 读读 情况下并不会引起什么问题。对于 写写,读写 或 写读 这些情况可能会引起一些问题,需要使用MVCC或者加锁的方式来解决它们。在使用 加锁 的方式解决问题时,由于既要允许 读读 情况不受影响,又要使 写写,读写,写读 情况中的操作相互阻塞,所以mysql实现一个有两种类型的锁组成的锁系统来解决。这两种类型的锁通常被称为 共享锁和排他锁,也叫读锁和写锁。
~ 读锁:也称共享锁,英文用 S 表示。针对同一份数据,多个事务的读操作可以同时进行而不会相互影响,相互不阻塞的。
~ 写锁:也成为排他锁,英文用X表示,当前写操作没有完成之前,他会阻断其他写锁和读锁。这样就能确保在给定的时间里,只有一个事务能执行写入,并防止其他用户读取正在写入的同一资源。
需要注意的时对于innodb引擎来说,读锁和写锁可以加在表上,也可以加在行上。
举例(行级读写锁):如果一个事务T1已经获得了某个行r的读锁,那么此时另外的一个事务T2是可以去获取这个行r的读锁的,因为读取操作并没有改变行r的数据;但是,如果某个事务T3想获得行r的写锁,泽塔必须等待T1,T2释放掉行r上的读锁才行。总结:这里的兼容是指对同一张表或记录的锁的兼容性情况。
X锁 S锁 X锁 不兼容 不兼容 S锁 不兼容 兼容 1. 锁定读
在采用加锁方式解决脏读,不可重复读,幻读这些问题时,读取一条记录时需要获取该记录的S锁,其实是不严谨的,有时候需要在读取记录时就获取记录的X锁,来禁止别的事务读写该记录,为此mysql提出了两种比较特殊的select语句格式。
~ 对读取的记录加S锁:
select ... lock in share mode; # 或 select ... for share;# (8.0新语法)
在普通的select语句后边加lock in share mode,如果当前事务执行了该语句,那么它会为读取到的记录加S锁,这样允许别的事务继续获取这些记录的S锁(比方说别的事务也是用select ... lock in share mode 语句来读取这些记录),但是不能获取这些记录的X锁(比如使用select ... for update 语句来读取这些记录,或者直接修改这些记录)。如果别的事务想要获取这些记录的X锁,那么他们会阻塞,知道当前事务提交之后将这些记录上的S锁释放掉。
~ 对读取的记录X锁:select ... for update;
在普通的select语句后边加for update,如果当前事务执行了该语句,那么他会为读取道的记录加上X锁,这样既不允许别的事务获取这些记录的S锁(比方说别的事务使用select ... lock in share mode语句来读取这些记录),也不允许获取这些记录的X锁(比如使用select ... for update语句来读取这些记录,或者直接修改这些记录)。如果别的事务想要获取这些记录的S锁或者X锁,那么他们会阻塞,直到当前事务提交之后将这些记录上的X锁释放掉。
2. 写操作平常所用到的写操作,无非是delect,update,insert这三种:
~ delect
对一条记录做delete操作的过程中其实是先在B+树中定位到这条记录的位置,然后获取这条记录的X锁,在执行delect mark操作。我们也可以把这个定位待删除记录在B+树中位置的过程看成是一个获取X锁的锁定读。
~ update:在对一条记录做update操作时分为三种情况:
1. 未修改该记录的简直,并且被更新的列占用的存储空间在修改前后未发生变化。
则先在B+树中定位到这条记录的位置,然后在获取一些记录的X锁,左后在原纪录的位置进行修改操作。我们也可以把这个定位待修改记录在B+树中位置的过程看成是一个获取X锁的锁定读。
2. 未修改该记录的键值,并且至少有一个被更新的列占用的存储空间在修改前后发生变化。则现在B+树定位到这条记录的位置,然后获取一下记录的X锁,将该记录彻底删除掉(就是把记录彻底移入垃圾链表),最后再插入一条新纪录。这个定位待修改记录在B+树中的位置的过程看成是一个获取X锁的锁定读,新插入的记录由insert操作提供的隐式锁进行保护。
3. 修改了该记录的键值,则相当于在原纪录上做delete操作之后再来一次insert操作,加锁操作就需要按照delete和insert的规则进行了。
~ insert
一般情况下,新插入一条记录的操作并不加锁,通过一种称之为隐式锁的结构来保护这条新插入的记录在本事务提交前不被别的事务访问。
3.2 从数据操作的粒度来划分:表级锁,页级锁,行锁
为了尽可能提高数据库的并发度,每次锁定的数据范围越小越好,理论上每次之锁定当前操作的数据的方案会得到最大得到并发度,但是管理锁是很 耗资源 的事情(涉及获取,检查,释放锁等动作)。因此数据库系统需要在 高并发 和 系统性能 两方面进行平衡,这样就产生了‘锁粒度’的概念。
对一条记录加锁影响也只是这条记录而已,我们就说这个锁的粒度比较细;其实一个事务也可以在表级别进行加锁,自然就被称之为 表级锁 或者 表锁,对一个表加锁影响整个表中的记录,我们就说这个锁的粒度比较粗。锁的粒度主要分为表级锁,页级锁和行锁。
1. 表锁
该锁会锁定整张表,他是mysql中最基本的锁策略,并不 依赖与存储引擎(不管你是mysql的什么存储引擎,对于表锁的策略都是一样的),并且表锁是开销最小的策略(因为力度比较大)。由于表级锁一次会将整个表锁定,所以可以很好的避免死锁问题。当然,锁的粒度大所带来的最大的负面影响就是出现锁资源争用的概率也会最高,导致并发率大打折扣。
1.1 表级别的S锁,X锁
在对某个表执行select,insert,delect,update语句时,innodb存储引擎是不会为这个表添加表级别的S锁或者X锁。在对某个表执行一些诸如alter table,drop table这类的ddl语句时,其他事务对这个表并发执行注入select,insert,delete,update的语句会发生阻塞。同理某个事务中对某个表执行select,insert,delect,update语句时,在其他会话中对这个表执行ddl操作也会发生阻塞。这个过程其实是通过在server层使用一种称之为元数据锁结构来实现的。
一般情况下,不会使用innodb存储引擎提供的表级别S锁和X锁。只会在一些特殊的情况下,比方说崩溃恢复过程中用到。比如,在系统变量中 atuocommit=0,innodb_table_locks=1时,手动获取innodb存储引擎提供的表t的S锁或者X锁可以这么写:
~ lock tables t read:innodb 存储引擎 会对表t加表级别的S锁。
~ lock tables t write:innodb 存储引擎会对表t加表级别的X锁。
不过尽量避免在使用innodb存储引擎的表上使用lock tables这样的手动锁表语句,它们并不会提供什么额外的保护,只是会降低并发能力而已。innodb的厉害之处还是实现了更细粒度的行锁,关于innodb表级别的S锁和X锁大家了解下就可以了。
举例:下面我们讲解myisam引擎下的表锁。总结:
myisam在执行查询语句前,会给涉及的所有表加读锁,在执行增删改操作前,会给涉及的表加写锁。innodb存储引擎是不会为这个表添加表级别的读锁或者写锁。
mysql的表级锁有两种模式:(myisam表进行操作的演示)~ 表共享读锁
~ 表独占写锁
锁类型 自己可读 自己可写 自己可以操作其他表 他人可读 他人可写 读锁 是 否 否 是 否 写锁 是 是 否 否 否 2. 意向锁
innodb支持多粒度,它允许行级锁与表级锁共存,而意向锁就是其中的一种表锁。
2.1 意向锁的存在是为了协调行锁和表锁的关系,支持多粒度的锁并存。
2.2 意向锁是一种 不予行级锁冲突表级锁,这一点非常重要。
2.3 表明“某个事务正在某些行持有了锁或该事务住呢比去持有锁”
意向锁分为两种:
~ 意向共享锁:事务有意向对表中的某些行加共享锁
select column from table ... lock in share mode;
~ 意向排他锁:事务有意向对表中的某些行加排他锁
select column from table ... for update;
即:意向锁是由存储引擎自己维护的,用户无法手动操作意向锁,在位数据行共享、排他锁之前,innodb会先获取该数据行 所在数据表对应意向锁。
1. 意向锁要解决的问题
现在有两个事务,分别是T1和T2,其中T2试图在该表级别上应用共享锁或排他锁,如果没有意向锁存在,那么T2就需要去检查各个页或行是否存在锁;如果存在意向锁,那么此时就会收到由T1控制的 表级别意向锁的阻塞。T2在锁定该表前不必检查各页或行锁,只需要检查表上的意向锁。简单来说就是给更大一级别的空间是以里面是否已经上锁。在数据表的场景中,如果我们给某一行数据加上了排他锁,数据库会自动给更大一级的空间,比如数据页或数据表加上意向锁,告诉其他人这个数据页或数据表已经有人上过排他锁了,这样当其他人想要获取数据表排它锁的时候,只需要了解是否有人已经获取了这个数据表的意向排他锁即可。
~ 如果事务想要获的数据表中某些记录的共享锁,就需要在数据表上添加意向共享锁。
~ 如果事务想要获得数据表中某些记录的排它锁,就需要在数据表上添加意向排它锁。
这时,意向锁会告诉其他事务已经有人锁定了表中的某些记录。
因为共享锁与排它锁互斥,所以事务B在试图对teacher表加共享锁得到时候,必须保证两个条件。
(1)当前没有其他事务持有teacher表的排它锁
(2)当前没有其他事务持有teacher 表中任意一行的排它锁。
为了检测是否满足第二个条件,事务B必须在确保teacher表不存在任何排它锁的前提下,去检测表中的每一行是否存在排它锁。很明显这是一个效率很低的做法,但是有了意向锁就不一样了。
意向锁是怎么解决这个问题的呢?首先我们需要直到意向锁之间的兼容和互斥性。
意向共享锁(IS) 意向排他锁(IX) 意向共享锁(IS) 兼容 兼容 意向排他锁(IX) 兼容 兼容 即意向锁之间是互相兼容的,虽然意向锁和自家兄弟互相兼容,但是他们会与普通的排他/共享锁互斥。
意向共享锁(IS) 意向排他锁(IX) 共享锁(S) 兼容 互斥 排他锁(X) 互斥 互斥 注意这里的排他/共享锁值得都是表锁,意向锁不会与行级的共享/排他锁互斥。回到钢刺啊teacher表的例子。
事务A获取了某一行的排它锁,并未提交:begin; select * from teacher where id = 6 for update;
此时teacher表存在两把锁:teacher表上的意向排他锁与id为6的数据行上的排它锁。事务B想要获取teacher表的共享锁。
begin; lock tables teacher read;
此时事务B检测事务A持有teacher表的意向排它锁,就可以得知事务A必然持久该表中某些数据行的排它锁,那么事务B对teacher表的加锁请求就会被排斥,而无需去检测表中的每一行记录是否存在排它锁。
意向锁的并发性
意向锁不会与行级的共享/排它锁互斥!正因为如此,意向锁并不会影响到多个事务对不同数据行加排它锁时的并发性。我们扩展一下上面teacher表的例子来概括一下意向锁的作用(一条数据从被锁定到被释放的过程中,可能存在多种不同锁,但是这里我们只着重表现意向锁。)
begin; select * from teacher where id = 6 for update;
事务A获取了teacher表上的意向排它锁,事务A获取了id为6的数据行上的排它锁。之后事务B想要获取teacher表的共享锁。
begin; select * from teacher where id= 5 for update;
从上面得到如下结论:
1)innodb支持多粒度的锁,特定场景下,行级锁可以与表级锁共存。
2)意向锁之间胡不排斥,但除了IS与S兼容外,意向锁会与 共享锁/排它锁互斥。
3) IX,IS是表级锁,不会和行级锁发生冲突。只会和表级锁发生冲突。
4) 意向锁在保证并发性的前提下,实现了行锁和表锁共存且满足事务隔离性的要求。
3. 自增锁在使用mysql中,我们可以为表的某个列添加auto_increment属性。举例:
create table `teacher`( `id` int not null auto_increment, `name` varchar(255) not null, primary key (`id`) )engine=innodb default charset=utf8mb4 collate=utf8mb4_0900_ai_ci;
由于这个表的id字段声明了auto_increment,意味着在书写插入语句时不需要为其赋值,sql语句可修改如下所示。
insert into `teacher`(name) values('zhangsan'),('lisi');
上面的插入语句并没有为id列显示赋值,所以系统会自动为他赋上递增值,结果如下。
现在我们看到的上面插入数据只是一种简单的插入模式,所有插入数据的方式总共分为三类,分别是"simple inserts","bulk inserts" 和 "mixed-mode inserts"。
1. "simple inserts"(简单插入)
可以预先确定要插入的行数的语句。包括没有嵌套子查询的单行和多行insert ... values() 和 replace语句。比如我们上面举的例子就属于该类插入,已经确定要插入的行数。
2. "bulk inserts"(批量插入)
实现不知道要插入的行数的语句。比如insert...select, replace...select 和 load data 语句,但不包括存insert。innodb在每处理一行,为auto_increment列分配一个新值。
3. "mixed-mode inserts"(混合模式插入)
这些是“Simple inserts”语句但是指定部分新行的自动递增值。例如insert into teacher(id, name) values(1,'a'),(null,'b'),(3,'c');只指定了一部分id的值。另一种类型的混合模式插入时insert ... on duplicate key update。
对于上面的数据插入的案例,mysql中采用了 自增锁 的方式来实现,auto-inc锁是当向使用含有auto_increment列的表中插入数据时需要获取的一种特殊的表级锁,在执行插入语句时就在表级别加上一个auto-inc锁,然后为每条待插入记录的auto-increment修饰的列分配递增的值,在该语句执行结束后,再把auto-inc锁时放掉。一个事务在持有auto-inc锁的过程中,其他事务插入语句都要被阻塞,可以保证一个语句中分配的递增值时连续的。也正因为此,其并发性显然不高,当我们像一个有auto_increment关键字的主键插入值得时候,每条语句都要对这个表锁进行竞争,这样的并发潜力是很低下的,所以innodb通过innodb_autoinc_lock_mode的不同取值来提供不同的锁机制,来显著提高sql语句的可伸缩性和性能。
4. 元数据锁(MDL锁)mysql5.5引入了meta data lock,简称MDL锁,属于表锁范畴。MDL得作用是,保证了读写得正确性。比如,如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,增加了一列,那么查询线程拿到的结果跟表结构对不上,肯定是不行的。
因此,当对一个表做增删改查操作的时候,加MDL读锁;当要对表做结构变更操作的时候,加DML写锁。
读锁之间不互斥,因此你可以有多个线程同时对一张表增删改查。读写锁之间,写锁之间是互斥的,用来保证表更表结构操作得安全性,解决了DML和DDL操作之间的一致性问题。不需要显示使用,在访问一个表的时候会被自动加上。
2. innodb中的行锁行锁也成为记录锁,故名意思,就是锁住某一行。需要注意的是,mysql服务器层并没有实现行锁机制,行级锁旨在存储引擎层实现。
优点:锁粒度小,发生锁冲突概率低,可以实现的并发度高。
缺点:对于锁的开销较大,加锁会比较慢,容易出现死锁情况。
innodb与myisam的最大不同的两点:一是支持事务;二是采用了行级锁。
假设student表中聚簇索引的简图如下所示:
这里吧B+树的索引结构做了一个简化,只是把索引中的记录给拿了出来,下面看看都有哪些常用的行锁类型。
2.1 记录锁
记录锁也就是仅仅把一条记录锁上,官方的类型名称为:lock_rec_not_gap。比如我们把id值为8的那条记录加一个记录锁的示意图如图所示。仅仅只锁住了8,对周围数据没有影响。
举例如下:
记录锁是由S锁和X锁之分的,称为S型记录锁和X型记录锁。
~ 当一个事务获取了一条记录的S型记录后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁。
~ 当一个事务获取了一条记录的X型记录锁后,其他事务及不可以继续获取该记录的S型记录锁,也不可以继续获取X型记录锁。
2.2 间隙锁mysql在 repeatable read 隔离级别下是可以解决幻读的问题的,解决方案有两种,可以使用MVCC方案解决,也可以采用加锁方案解决。但是在使用加锁方案解决时有一个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁。innodb提出了一种称之为gap locks的锁,官方的类型名称为:lock_gap,我们可以简称为gap锁。比如,把id值为8的那条记录加上一个gap锁的示意图如下。
图中id值为8的记录加上了gap锁,意味着 不允许别的事务在id值为8的记录前边的间隙插入新纪录,其实就是id列的值(3,8)这个区间的新纪录是不允许立即插入的。比如,有另外一个事务在想插入一条id值为4的新纪录,它定位到该条新记录的下一条记录的id值为8,而这条记录上又有一个gap锁,所以就会阻塞插入操作,直到拥有这个gap锁的事务提交了之后,id列的值在区间(3,8)中的新纪录才可以被插入。
gap锁的提出仅仅是为了防止插入幻影记录而提出的。虽然有共享gap锁和独占gap锁这样的说法,但是他们起到的作用是相同的。而且如果对一条记录加了gap锁(不论是共享gap锁还是独占gap锁),并不会限制其他事务对这条记录加记录锁或者继续加gap‘锁。
3. 临键锁有时候我们既想 锁住某条记录,又想 阻止 其他事务在该记录前边的 间隙插入新纪录,所以innodb就提出了一种称之为 next-key locks 的锁,官方的类型名称为:lock_ordinary,我们也可以简称为next-key锁。next-key locks是在存储引擎innodb,事务级别在可重复读的情况下使用的数据库锁,innodb默认的锁就是next-key locks。比如,我们把id值为8的那条记录加一个next-key锁的示意图如下:
next-key锁的本质就是一个记录锁和一个gap锁的合体,它既能保护该条记录,又能阻止别的事务将新纪录插入被保护记录前边的间隙。
begin; select * from student where id <=8 and id > 3 for update;
4. 插入意向锁
我们说一个事务再 插入 一条记录是需要判断一下插入位置是不是被别的事务加了gap锁,如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交。但是innodb规定事务在等待的时候也需要在内存中生成一个锁结构,表明有事务想在某个 间隙 中 插入 新纪录,但是现在在等待。innodb就把这种类型的锁命名为insert intention locks,官方的类型名称为:lock_insert_intention, 我们称为 插入意向锁,插入意向锁是一种gap锁,不是意向锁,在insert操作时产生的。
插入意向锁是在插入一条记录行前,由 insert 操作产生的一种间隙锁。该锁用以表示插入意向,当多个事务在同一区间插入位置不同的多条数据时,事务之间不需要相互等待。假设存在两条值分别为4和7的记录,两个不同的事务分别试图插入值为5和6的两天记录,每个事务在获取插入行上独占的(排他)锁前,都会获取(4,7)之间的间隙锁,但是因为数据行之间并不冲突,,所以两个事务之间并不会产生冲突。总结来说,插入意向锁的特性可分成两部分:
1)插入意向锁是一种特殊的间隙锁,间隙锁可以锁定开区间内的部分记录
2)插入意向锁之间不排斥,所以即使多个事务在同一个区间插入多条记录,只要记录本身(主键,唯一索引)不冲突,那么事务之间就不会出现冲突等待。
注意,虽然插入意向锁中含有意向锁三个字,但它并不属于意向锁而属于间隙锁,因为意向锁是表级锁,而插入意向锁是行锁。
比如,把id值为8的那条记录加一个插入意向锁的示意图如下:比如,现在T1为id值8的记录加了个gap锁,然后T2和T3分别想想student表中插入id值分别为4,5的两条记录,所以现在为id值为8的记录加的锁的示意图就如下图所示:
图中可以看到,由于T1持有gap锁,所以T2和T3需要生成一个插入意向锁的锁结构并且处于等待状态。当T1提交后会把它获取到的锁都释放掉,这样T2和T3就能获取到对应的插入意向锁了(本质上就是把插入意向锁对应的锁结构的is_waiting属性改为false),T2和T3之间也并不会相互阻塞,他们可以同时获取到id值为8的插入意向锁,然后执行插入操作。事实上 插入意向锁并不会组织别的事务继续获取该纪录上任何类型的锁。
3. 页锁页锁就是在 页的粒度 上进行锁定的,锁定的胡数据资源比行锁要多,因为一个页中可以有多个行记录。当我们使用页锁的时候,会出现数据浪费的现象,但这样的浪费最多也就是一个页上的数据行。页锁的开销介于表锁和行锁之间,会出现死锁。锁定粒度介于表锁和行锁之间,并发一般。
每个层级的所数量是有限制的,因为所会占用内存空间,锁空间的大小是有限的。当某个层级的锁数量超过了这个层级的阈值时,就会出现锁升级。锁升级就是用更大粒度的锁代替多个小粒度的锁,比如innodb中行锁升级为表锁,这样做的好处就是占用的的锁空间降低了,但同时数据的并发也下降了。
3.3 从对待锁的态度划分为:乐观锁,悲观锁
从对待锁的态度来看,可以将锁分为乐观锁和悲观锁,从名字中也可以看出来这两种锁是两种看待数据并发的思维方式。需要注意的是,乐观锁和悲观锁并不是锁,而是锁的设计思想。
3.3.1 悲观锁
悲观锁是一种思想,顾名思义,就是很悲观,对数据被其他事务的修改持保守态度,会通过数据库自身的锁机制来实现,从而保证数据操作的排他性。
悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,所以每次再拿数据的时候都会上锁,这样别人想拿这个数据就会 阻塞 直到拿到锁(共享资源每次只给一个线程使用,其他线程阻塞,用完后再把i资源转让给其他线程)。比如行锁,表锁,读锁,写锁等,都是在做操作之前先上锁,当其他线程想要访问数据时,都需要阻塞挂起。java中synchronized和reentrantlock等独占锁就是悲观锁思想的实现。
秒杀案例1:
商品秒杀的过程中,库存数量的减少,避免出现超卖的情况。比如,商品表中有一个字段为iquantity表示当前该商品的库存量,假设商品为华为mate40,id=1001,quantity=100个。如果不使用锁的情况下,操作方法如下所示
# 第一步:查出商品库存 select quantity from items where id = 1001; # 第二部:如果库存大于0,则根据商品信息生产订单 insert into order(item_id) values(1001); # 第三步: 修改商品的库存,num表示购买数量 update items set quantity = quantity-num where id = 1001;
这样写的话,在并发量小的情况下没有大问题,但是如果在高并发环境下可能出现以下问题:
线程A 线程B 1 step1(查询还有1部手机) step1(查询还有1部手机) 2 step2(生成订单) 3 step2(生成订单) 4 step3(库存减1) 5 step3(库存减1) 其实线程B此时已经下单并减完库存,这时候线程A依然去执行step3,就造成了超卖。
我们使用悲观锁可以解决这个问题,商品信息从查询出来到修改,中间有一个生成订单的过程,使用悲观锁的原理就是,当我们在查询items信息后就把当前的数据锁定,直到我们修改完毕后在解锁。那么整个过程中,因为数据被锁定了,就不会出现有第三者来对其修改了。而这样做的前提是 需要将执行的sql语句放在同一个事务中,否则达不到锁定数据行的目的。
修改如下:# 开启事务 begin; # 给行数据上排它锁 select quantity from items where id = 1001 for update; # 判断库存是否大于0,然后在决定是否生成订单 insert into orders(item_id) values(1001); # 修改商品库存 update items set quantity=quantity-num where id = 1001; # 提交事务,释放锁 commit;
select ... for update 是mysql中的悲观锁。此时items表中,id为1001的那条数据就被我们锁定了,其他的要执行select quantity from items where id = 1001 for update; 语句的事务必须等本次事务提交之后才能执行。这样我们可以保证数据不会被其它事务修改。
注意,当执行select quantity from items where id=1001 for update;语句之后,如果在其他事务中执行了select quantity from items where id = 1001; 语句并不会受第一个事务影响,仍然可以正常访问数据。
注意:select ... for update 语句执行过程中所有扫描的行都会被上锁,因此在MySQL中用悲观锁必须确定了使用的索引,而不是全表扫描,否则将会把整个表锁住。
悲观锁不适用的场景较多,它存在一些不足,因为悲观锁大多数情况下依靠数据库的锁机制实现,以保证程序的并发访问性,同时这样对数据库的性能开销影响也很大,特别是 长事务 而言,这样的 开销往往无法接受,这是就需要乐观锁。
3.3.2 乐观锁
乐观锁认为对同一数据的并发操作不会总发生,属于小概率时间,不用每次都对数据上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,也就是 不采用数据库自身的锁机制,而是通过程序来实现。在程序上,我们可以采用 版本号机制 或者 CAS机制 实现。乐观锁适用于多读的应用类型,这样可以提高吞吐量。
1. 乐观锁的版本号机制
在表中设计一个 版本字段version, 第一次读的时候,会获取 version 字段的取值。然后对数据进行更新或删除操作时,或执行update ... set version=version+1 where version=version。 此时如果已经由事务对这条数据进行了更新,修改就不会成功。
这种凡是类似我们熟悉的SVN,GIT版本管理系统,当我们修改了代码进行提交时,首先会检查当前版本号与服务器上的版本号是否一致,如果一直就可以直接提交,如果不一致就需要更新服务器上的最新代码,然后在进行提交。
2. 乐观锁的时间戳机制
时间戳和版本号一样,也是在更新提交的时候,档期那数据的时间戳和更新之前取得的时间戳进行比较,如果两者一直则更新成功,否则就是版本冲突。
你能看到的乐观锁就是当程序员自己控制数据并发操作的权限,基本是通过给数据行增加一个戳,从而证明档期那拿到的数据是最新的。
秒杀案例2:依然使用上面的执行流程
# 开启事务 begin; # 第一步:插入商品库存 select quantity from items where id = 1001; # 第二步:如果库存大于0,则根据商品信息生成订单 insert into orders(item_id) values(1001); # 第三步:修改商品的库存,num表示购买数量,并且比较版本号是否相同,然后将版本号+1 update items set quantity=quantity-num ,version=version+1 where id = 1001 and version = version # 提交事务 commit;
注意,如果数据表是 读写分离 的表,当master表中写入的数据没有及时同步到slave表中时,会造成更新一直失败的问题。此时需要 强制读取master表 中的数据(即select语句放到事务中即可,这时候查询的就是master主库了。)
如果我们对同同一条数据进行 频繁的修改 的话,那么就会出现这么一种场景,每次修改都只有一个事务能更新成功,在业务感知上面就会有大量的失败操作。我们把代码修改如下:
# 第一步:查出商品库存 select quantity from items where id = 1001; # 第二部:库存大于零,生成订单 insert into orders(item_id) values(1001); # 第三步:修改商品库存, num表示购买量,库存减去购买量是否大于零 update items set quantity = quantity - num where id = 1001 and quantity - num >0;
这样就会使每次修改都能成功,而且不会出现超卖的现象。
3.3.3 两种锁的适用场景
从这两种锁的设计思想中,我们总结下乐观锁和悲观锁的使用场景:
1. 乐观锁 适合 读操作多 的场景,相对来说写的操作比较少。他的优点在于 程序实现, 不存在死锁 的问题,不过适用场景也会相对乐观,因为他阻止不了除程序以外的数据库操作。
2. 悲观锁 适合 写操作多 的场景,因为写的操作具有排他性。采用悲观锁的方式,可以在数据库层面阻止其他事务对该数据的操作权限,防止读写和写写冲突。
我们把乐观锁和悲观锁总结如下图所示:
3.4 按加锁的方式划分:显示锁,隐式锁
3.4.1 隐式锁
也给事务在执行insert操作的时候,如果即将插入的 间隙 已经被其他事务加了gap锁,那么本次的insert操作会阻塞,并且当前事务会在间隙上加一个 插入意向锁,否则一般情况下insert操作是不加锁的。那如果也给事务首先插入了一条记录(此时并没有在内存生产与该记录关联的锁结构),然后另一个事务:
~ 立即使用select ... lock in share mode 语句读取这条记录,也就是要获取这条记录的S锁,或者使用 select ... for update 语句读取这条记录,也就是要获取这条记录的X锁,怎么办?
如果这种情况的发生,那么可能产生脏读问题。
~ 立即修改这条记录,也就是要获取这条记录的X锁,怎么办?
如果允许这种情况的发生,那么可能产生脏写的问题。
这时候我们前边提过了的 事务id 又要起作用了。我们聚簇索引和耳机索引中的记录分开看一下:
~ 情景一:对于聚簇索引记录来说,有个trx_id隐藏列,该隐藏列记录着最后改动该记录的 事务id。那么如果在当前事务种新插入一条聚簇索引记录后,该记录的trx_id隐藏列代表的就是当前事务的事务id,如果其他事务此事向对该记录添加S锁或X锁时,首先会看一下记录trx_id隐藏列代表的事务是否时当前的活跃事务,如果是的话,那么就帮助当前事务创建一个X锁(也就是为当前事务创建一个锁结构,is_waiting属性时false),然后自己进入等待状态(也就是为自己也创建一个锁结构,is_waiting属性时true)
~ 情景二:对于二级索引记录来说,本身并没有trx_id隐藏列,但是在二级索引页面的page header部分有一个page_max_trx_id属性,该属性代表对该页面做改动的最大的 事务id,如果page_max_trx_id 属性值小于当前最小的活跃 事务id,那么说明对该页页面做修改的事务都已经提交了,否则就需要在页面种定位到对应的耳机索引记录,然后回表找到他对应的聚簇索引记录,然后再重复 情景一 的做法。
即:一个事务对新插入的记录可以不显示的加锁(生成一个锁结构),但是由于事务id的存在,当相遇加了一个隐式锁。别的事务在对这条记录加S锁或者X锁时,由于隐式锁的存在,会先帮助当前事务生成一个锁结构,然后在自己生成也给锁结构后进入等待状态。隐式锁是一种延迟枷锁机制,从而来减少加锁的数量。
隐式锁在实际内存对象中并不含有这个锁信息。只有当产生锁等待时,隐式锁转化为显示锁。
3.4.2 显示锁
通过特定的语句进行加锁,我们一般称之为显示加锁,例如:
显示加共享锁:
select ... lock in in share mode;
显示加排它锁:
select ... for update;
3.5 其他锁之:全局锁
全局锁就是对 整个数据库实例 加锁。当你需要让整个数据库处于 只读状态 的时候,可以使用这个命令,之后其他线程的一下语句被阻塞:数据库更新语句,数据定义语句和更新类事务的提交语句。全局锁的典型适用场景:做全库逻辑备份。
3.6 其他锁之:死锁
死锁是指两个或多个事务在同一资源上相互占用,并请求锁定对方占用的资源,从而导致恶性循环。死锁示例:
事务1 | 事务2 | |
1 | start transaction; update account set money=100 where id = 1; | start transaction; |
2 | update account set money=100 where id=2; | |
3 | update account set money=200 where id = 2; | |
4 | update account set money=200 where id=1; |
1. 此时事务1已经给 id=1 的数据上锁
2. 事务2给 id=2的数据上锁
3. 事务1想修改id=2的数据,此时只能等待事务2将锁释放掉
4. 事务2想修改id=1的数据,此时只能等待事务1将锁释放掉
5. 两个事务都在等待对方释放锁,这时候就是死锁
3.6.2 产生死锁的必要条件
1. 两个或两个以上的事务
2. 每个事务都已经持有锁并且申请新的锁
3. 锁资源同时只能被同一个事务持有或者不兼容
4. 事务之间因为持有锁和申请锁导致彼此循环等待
3.6.3 如何处理死锁
方式1:等待,直到超时(innodb_lock_wait_timeout=50S)
即当两个事务相互等待时,当一个事务等待时间超过设置的阈值时,就将其回滚,另外事务继续进行。这种方法简单有效,在innodb中,参数 innodb_lock_wait_timeout 用来设置超时时间。
缺点:对于在线服务来说,这个等待时间往往是无法接受的。
方式2:使用死锁检测进行死锁处理
方式1检测死锁太过被动,innodb还提供了wait-for graph算法来主动进行死锁检测,每当加锁请求无法立即满足需要并进入等待时,wait-for graph 算法都会被出发这是一种较为 主动的死锁检测机制,要求数据库保存 锁的信息链表 和 事务等待链表 两部分信息。
基于这两个信息,可以绘制wait-for graph (等待图)
死锁检测的原理时构建一个以事务为顶点,锁为边的有向图,判断有向图是否在环,存在即有死锁。
一旦检测到回路,有死锁,这时候innodb存储引擎会选择 回滚undo量最小的事务,让其他事务继续执行(innodb_deadlock_detect=on表示开启这个逻辑).
缺点:每个新的被阻塞的线程,都要判断是不是由自己的加入导致了死锁,这个操作时间复杂度时O(n)。如果100个并发线程同时更新同一行,意味着要检测100*100=1万次,1玩个线程就会有1千万次检测。
如何解决?方式1:关闭死锁检测,但意味着可能会出现大量超时,会导致业务有损。
方式2:控制并发访问的数量。比如在中间件实现对于相同行的更新,在进入引擎之前排队,这样在innodb内部就不会有大量的死锁检测工作。
进一步思路:可以考虑通过将一行改成逻辑上的多行来减少锁冲突。比如,连锁超时账户总额的记录,可以考虑放到多条记录上。账户总额等于这多个记录的值的总和。
3.6.4. 如何避免死锁
~ 合理设计索引,是业务sql尽可能通过索引定位更少的行,减少锁竞争。
~ 调整业务罗sql执行顺序,避免update/delete长时间持有锁的sql在事务前面。
~ 避免大事务,尽量将大事务拆成多个小事务来处理,小事务缩点锁定资源的时间,发生锁冲突的几率也更小
~ 在并发较高的系统中,不要显示加锁,特别是在事务里显示加锁。如select ... for update语句,如果是在事务里运行了 start transaction 或设置 autocommit 等于0 ,那么就会锁定查询到的记录。
~ 降低隔离级别。如果业务允许,将隔离级别设置低也是较好的选择,比如将隔离级别从RR调整为RC,可以避免掉很多因为gap'锁造成的死锁。
4. 锁内部结构
我们前边说对一条记录加锁的本质就是在内存中创建一个锁结构与之关联,那么是不是一个事务对多条记录加锁,就要创建多个锁结构呢?比如:
# 事务T1
select * form user lock in share mode;
理论上创建多个锁结构没问题,但是如果一个事务要获取10000条记录的锁,生成10000个锁结构也太崩溃了!所以决定在对不同记录加锁时,如果符合下边这些条件的记录会放到一个 锁结构中。
~ 在同一个事务中进行加锁操作
~ 被加锁的记录同一个页面中
~ 加锁的类型是一样的
~ 等待状态是一样的
INNODB存储引擎的 锁结构 如下:
结构解析:
1. 锁所在的事务信息:
不论是 表锁 还是 行锁,都是在事务执行过程中生成的,哪个事务生成了这个 锁结构,这里就要记录这个事务的信息。
此 在内存结构中只是一个指针,通过指针可以找到内存中关于该事务的更多信息,比方说事务
2. 索引信息:
对于行锁来说,需要记录一些加锁的记录是属于哪个索引的。这里也是一个指针。
3. 表锁/行锁信息:
表锁结构和行锁结构在这个位置的内容是不同的:
~表锁:记载着对那个表加的锁,还有其他的一些信息。
~行锁:记载了三个重要信息:
· space id:记录所在表空间。
· page number:记录所在页号。
· n_bits: 对于行锁来说,一条记录就对应着一个bit,一个页面中包含很多记录,用不同的bit来区分到底时哪一条记录加了锁。为此在行锁结构的末尾放置了一堆bit,这个n_bits属性代表使用了多少bit。
4. type_mode:
这是一个32为数,被分成了lock_mode,lock_type和rec_lock_type)三个部分,如图所示:
~ 锁的模式 lock_mode ,占用低4位,可选的值如下:
lock_is:表示共享意向锁,也就是is锁。
lock_ix:表示独占意向锁,也就是ix锁。
lock_s:表示共享锁,也就是S锁。
lock_x:表示独占锁,也就是X锁。
lock_auto_inc: 表示auto_inc锁。
~ 锁的类型 lock_type ,占用5-8位:
lock_table,也就是表级锁。
lock_rec,也就是行级锁。
5. 其他信息:
为了更好的管理系统运行过程中生成的各种锁结构而设计了各种hash表和链表。
6. 一堆bit:
如果是 行锁结构 的话,在该结构末尾还放置了一堆bit,bit的数量是由上边提到的 n_bits 属性表示的,innodb 数据页中的每条记录在 记录头信息 中都包含了一个 heap_no属性,未记录 infimum 的head_no值为0,supermum的heap_no值为1,之后每插入一条记录heap_no值就+1。锁结构 最后的一堆bit就对应着一个页面中的记录,一个bit映射一个heap_no,即一个bit映射到业内的一条记录。
5. 锁的监控
关于mysql锁的监控,我们一般可以通过检查innodb_row_lock等状态变量来分析系统上的行锁的争夺情况
对各个状态量的说明如下:
~ Innodb_row_lock_current_waits:当前正在等待锁定的数量
~ Innodb_row_lock_time:从系统启动到现在锁定的总时长
~ Innodb_row_lock_time_avg:每次等待所花的平均时长
~ Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花的时间
~ Innodb_row_lock_waits:系统启动后到现在总共等待次数
对于这5个状态变量,比较重要的3个加粗。
尤其是当等待次数很高,而且每次等待时间也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手优化。