概述
相对其他数据库而言,mysql的锁机制比较简单,其最显著的特点是不同的存储引擎支持不同的锁机制。
mysql大致可归纳为以下3种锁:
- 表级锁:开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低。
- 行级锁:开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度也最高。
- 页面锁:开销和加锁时间界于表锁和行锁之间;会出现死锁;锁定粒度界于表锁和行锁之间,并发度一般
在使用myisam时,我们只可以使用表级锁,而mysql的表级锁有两种模式:
表共享锁(table read lock)和表独占写锁(table write lock),他们在工作时表现如下:
- 对某一个表的读操作,不会阻塞其他用户对同一表请求,但会阻塞对同一表的写请求;
- 对myisam的写操作,则会阻塞其他用户对同一表的读和写操作;
- myisam表的读操作和写操作之间,以及写操作之间是串行的。
当一个线程获得对一个表的写锁后,只有持有锁的线程可以对表进行更新操作。其他线程的读、写操作都会等待,直到锁被释放为止。
如何加表锁
myisam在执行查询语句(select)前,会自动给涉及的所有表加读锁,在执行更新操作(update、delete、insert等)前,会自动给涉及的表加写锁,这个过程并不需要用户干预,因此用户一般不需要直接用lock table命令给myisam表显式加锁。
给myisam表显式加锁,一般是为了一定程度模拟事务操作,实现对某一时间点多个表的一致性读取。例如,有一个订单表orders,其中记录有订单的总金额total,同时还有一个订单明细表order_detail,其中记录有订单每一产品的金额小计subtotal,假设我们需要检查这两个表的金额合计是否相等,可能就需要执行如下两条sql:
select sum(total) from orders;
select sum(subtotal) from order_detail;
这时,如果不先给这两个表加锁,就可能产生错误的结果,因为第一条语句执行过程中,order_detail表可能已经发生了改变。因此,正确的方法应该是:
lock tables orders read local,order_detail read local;
select sum(total) from orders;
select sum(subtotal) from order_detail;
unlock tables;
要特别说明以下两点内容。
- 上面的例子在lock tables时加了‘local’选项,其作用就是在满足myisam表并发插入条件的情况下,允许其他用户在表尾插入记录
- 在用locktables给表显式加表锁时,必须同时取得所有涉及的表的锁。也就是说,在执行lock tables后,只能访问显式加锁的这些表,而不能访问未加锁的表;同时,如果加的是读锁,那么只能执行查询操作,而不能执行更新操作。其实,在自动加锁的情况下也基本如此,mysql会一次性获得sql语句所需要的全部锁。这也正是myisam表不会出现死锁(deadlock free)的原因。另外,mysql支持锁升级,即在条件满足时,允许从表共享锁升级为表独占锁。
一个session使用lock table 命令给表film_text加了读锁,这个session可以查询锁定表中的记录,但更新或访问其他表都会提示错误;同时,另外一个session可以查询表中的记录,但更新就会出现锁等待。
当使用lock table时,不仅需要一次锁定用到的所有表,而且,同一个表在sql语句中出现多少次,就要通过与sql语句中相同的别名锁多少次,否则也会出错!
并发锁
在一定条件下,myisam也支持查询和操作的并发进行。
myisam存储引擎有一个系统变量concurrent_insert,专门用以控制其并发插入的行为,其值分别可以为0、1或2。
- 当concurrent_insert设置为0时,不允许并发插入。
- 当concurrent_insert设置为1时,如果myisam允许在一个读表的同时,另一个进程从表尾插入记录。这也是mysql的默认设置。
- 当concurrent_insert设置为2时,无论myisam表中有没有空洞,都允许在表尾插入记录,都允许在表尾并发插入记录。
可以利用myisam存储引擎的并发插入特性,来解决应用中对同一表查询和插入锁争用。例如,将concurrent_insert系统变量为2,总是允许并发插入;同时,通过定期在系统空闲时段执行optionmize table语句来整理空间碎片,收集因删除记录而产生的中间空洞。
myisam的锁调度
前面讲过,myisam存储引擎的读和写锁是互斥,读操作是串行的。那么,一个进程请求某个myisam表的读锁,同时另一个进程也请求同一表的写锁,mysql如何处理呢?答案是写进程先获得锁。不仅如此,即使读进程先请求先到锁等待队列,写请求后到,写锁也会插到读请求之前!这是因为mysql认为写请求一般比读请求重要。这也正是myisam表不太适合于有大量更新操作和查询操作应用的原因,因为,大量的更新操作会造成查询操作很难获得读锁,从而可能永远阻塞。这种情况有时可能会变得非常糟糕!幸好我们可以通过一些设置来调节myisam的调度行为。
- 通过指定启动参数low-priority-updates,使myisam引擎默认给予读请求以优先的权利。
- 通过执行命令set low_priority_updates=1,使该连接发出的更新请求优先级降低。
- 通过指定insert、update、delete语句的low_priority属性,降低该语句的优先级。
虽然上面3种方法都是要么更新优先,要么查询优先的方法,但还是可以用其来解决查询相对重要的应用(如用户登录系统)中,读锁等待严重的问题。
另外,mysql也提供了一种折中的办法来调节读写冲突,即给系统参数max_write_lock_count设置一个合适的值,当一个表的读锁达到这个值后,mysql变暂时将写请求的优先级降低,给读进程一定获得锁的机会。
上面已经讨论了写优先调度机制和解决办法。这里还要强调一点:一些需要长时间运行的查询操作,也会使写进程“饿死”!因此,应用中应尽量避免出现长时间运行的查询操作,不要总想用一条select语句来解决问题。因为这种看似巧妙的sql语句,往往比较复杂,执行时间较长,在可能的情况下可以通过使用中间表等措施对sql语句做一定的“分解”,使每一步查询都能在较短时间完成,从而减少锁冲突。如果复杂查询不可避免,应尽量安排在数据库空闲时段执行,比如一些定期统计可以安排在夜间执行。
innodb锁问题
innodb与myisam的最大不同有两点:一是支持事务(transaction);二是采用了行级锁。
行级锁和表级锁本来就有许多不同之处,另外,事务的引入也带来了一些新问题。
1.事务(transaction)及其acid属性
事务是由一组sql语句组成的逻辑处理单元,事务具有4属性,通常称为事务的acid属性。
- 原子性(actomicity):事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。
- 一致性(consistent):在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以操持完整性;事务结束时,所有的内部数据结构(如b树索引或双向链表)也都必须是正确的。
- 隔离性(isolation):数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。
- 持久性(durable):事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。
2.并发事务带来的问题
相对于串行处理来说,并发事务处理能大大增加数据库资源的利用率,提高数据库系统的事务吞吐量,从而可以支持可以支持更多的用户。但并发事务处理也会带来一些问题,主要包括以下几种情况。
- 更新丢失(lost update):当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题——最后的更新覆盖了其他事务所做的更新。例如,两个编辑人员制作了同一文档的电子副本。每个编辑人员独立地更改其副本,然后保存更改后的副本,这样就覆盖了原始文档。最后保存其更改保存其更改副本的编辑人员覆盖另一个编辑人员所做的修改。如果在一个编辑人员完成并提交事务之前,另一个编辑人员不能访问同一文件,则可避免此问题
- 脏读(dirty reads):一个事务正在对一条记录做修改,在这个事务并提交前,这条记录的数据就处于不一致状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”的数据,并据此做进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象地叫做“脏读”。
- 不可重复读(non-repeatable reads):一个事务在读取某些数据已经发生了改变、或某些记录已经被删除了!这种现象叫做“不可重复读”。
- 幻读(phantom reads):一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。
innodb的行锁模式及加锁方法
innodb实现了以下两种类型的行锁。
- 共享锁(s):允许一个事务去读一行,阻止其他事务获得相同数据集的排他锁。xxx lock in share mode
- 排他锁(x):允许获取排他锁的事务更新数据,阻止其他事务取得相同的数据集共享读锁和排他写锁。xxx for update
另外,为了允许行锁和表锁共存,实现多粒度锁机制,innodb还有两种内部使用的意向锁(intention locks),这两种意向锁都是表锁。
意向共享锁(is):事务打算给数据行共享锁,事务在给一个数据行加共享锁前必须先取得该表的is锁。
意向排他锁(ix):事务打算给数据行加排他锁,事务在给一个数据行加排他锁前必须先取得该表的ix锁。
innodb行锁模式兼容性列表
当前锁模式/是否兼容/请求锁模式 | x | ix | s | is |
x | 冲突 | 冲突 | 冲突 | 冲突 |
ix | 冲突 | 兼容 | 冲突 | 兼容 |
s | 冲突 | 冲突 | 兼容 | 兼容 |
is | 冲突 | 兼容 | 兼容 | 兼容 |
如果一个事务请求的锁模式与当前的锁兼容,innodb就请求的锁授予该事务;反之,如果两者两者不兼容,该事务就要等待锁释放。
意向锁是innodb自动加的,不需用户干预。对于update、delete和insert语句,innodb会自动给涉及的数据集加排他锁(x);对于普通select语句,innodb会自动给涉及数据集加共享锁(s);事务可以通过以下语句显式给记录集加共享锁或排锁。
共享锁(s):select * from table_name where ... lock in share mode
排他锁(x):select * from table_name where ... for update
用select .. in share mode获得共享锁,主要用在需要数据依存关系时确认某行记录是否存在,并确保没有人对这个记录进行update或者delete操作。但是如果当前事务也需要对该记录进行更新操作,则很有可能造成死锁,对于锁定行记录后需要进行更新操作的应用,应该使用select ... for update方式获取排他锁。
innodb行锁实现方式
innodb行锁是通过索引上的索引项来实现的,这一点mysql与oracle不同,后者是通过在数据中对相应数据行加锁来实现的。innodb这种行锁实现特点意味者:只有通过索引条件检索数据,innodb才会使用行级锁,否则,innodb将使用表锁!
在实际应用中,要特别注意innodb行锁的这一特性,不然的话,可能导致大量的锁冲突,从而影响并发性能。
另外,在innodb事务中,行锁是在需要的时候才加上的,但并不是不需要了就立刻释放,而是要等到事务结束时才释放。这个就是两阶段锁协议。
因此,如果你的事务中需要锁多个行,要把最可能造成锁冲突、最可能影响并发度的锁尽量往后放。
间隙锁(next-key锁)
当我们用范围条件而不是相等条件检索数据,并请求共享或排他锁时,innodb(可重复读、串行化级别下才有效)会给符合条件的已有数据的索引项加锁;对于键值在条件范围内但并不存在的记录,叫做“间隙(gap)”,innodb也会对这个“间隙”加锁,这种锁机制就是所谓的间隙锁(next-key锁)。
举例来说,假如emp表中只有101条记录,其empid的值分别是1,2,...,100,101,下面的sql:
select * from emp where empid > 100 for update
是一个范围条件的检索,innodb不仅会对符合条件的empid值为101的记录加锁,也会对empid大于101(这些记录并不存在)的“间隙”加锁。
innodb使用间隙锁的目的,一方面是为了防止幻读,以满足相关隔离级别的要求,对于上面的例子,要是不使用间隙锁,如果其他事务插入了empid大于100的任何记录,那么本事务如果再次执行上述语句,就会发生幻读;另一方面,是为了满足其恢复和复制的需要。有关其恢复和复制对机制的影响,以及不同隔离级别下innodb使用间隙锁的情况。
很显然,在使用范围条件检索并锁定记录时,innodb这种加锁机制会阻塞符合条件范围内键值的并发插入,这往往会造成严重的锁等待。因此,在实际开发中,尤其是并发插入比较多的应用,我们要尽量优化业务逻辑,尽量使用相等条件来访问更新数据,避免使用范围条件。
其次,间隙锁的存在可能会导致死锁,如下:
注意:不同session下的间隙锁之间不会冲突(间隙锁不互锁),跟间隙锁存在冲突关系的,是“往这个间隙中插入一个记录”这个操作
什么时候使用表锁
对于innodb表,在绝大部分情况下都应该使用行级锁,因为事务和行锁往往是我们之所以选择innodb表的理由。但在个别特殊事务中,也可以考虑使用表级锁。
- 第一种情况是:事务需要更新大部分或全部数据,表又比较大,如果使用默认的行锁,不仅这个事务执行效率低,而且可能造成其他事务长时间锁等待和锁冲突,这种情况下可以考虑使用表锁来提高该事务的执行速度。
- 第二种情况是:事务涉及多个表,比较复杂,很可能引起死锁,造成大量事务回滚。这种情况也可以考虑一次性锁定事务涉及的表,从而避免死锁、减少数据库因事务回滚带来的开销。
当然,应用中这两种事务不能太多,否则,就应该考虑使用myisam表。
在innodb下 ,使用表锁要注意以下两点。
(1)使用lock talbes虽然可以给innodb加表级锁,但必须说明的是,表锁不是由innodb存储引擎层管理的,而是由其上一层mysql server负责的,仅当autocommit=0、innodb_table_lock=1(默认设置)时,innodb层才能知道mysql加的表锁,mysql server才能感知innodb加的行锁,这种情况下,innodb才能自动识别涉及表级锁的死锁;否则,innodb将无法自动检测并处理这种死锁。
(2)在用locak tables对innodb锁时要注意,要将autocommit设为0,否则mysql不会给表加锁;事务结束前,不要用unlocak tables释放表锁,因为unlock tables会隐含地提交事务;而commit或rollback并不能释放用locak tables加的表级锁,所以一般我们必须先提交事务后,再用unlock tables释放表锁,正确的方式见如下语句。
set autocommit=0;
locak tables t1 write, t2 read, ...;
[do something with tables t1 and here];
commit;
unlock tables;
关于死锁
myisam表锁是deadlock free的,这是因为myisam总是一次性获得所需的全部锁,要么全部满足,要么等待,因此不会出现死锁。但是在innodb中,除单个sql组成的事务外,锁是逐步获得的,这就决定了innodb发生死锁是可能的。
发生死锁后,innodb一般都能自动检测到,并使一个事务释放锁并退回,另一个事务获得锁,继续完成事务。有以下两种处理方式
- 直接进入等待,直到超时。这个超时时间可以通过参数innodb_lock_wait_timeout来设置(默认50s)
- 对于在线服务来说,这个等待时间往往是无法接受的。
- 如果设置成1s,这样当出现死锁的时候,确实很快就可以解开,但如果不是死锁,而是简单的锁等待,则会造成很多误伤
- (推荐)主动死锁检测,发现死锁后,主动回滚死锁链条中的某一个事务,让其他事务得以继续执行。将参数innodb_deadlock_detect设置为on,表示开启这个逻辑
- 如果出现很多事务都要更新同一行的场景(热点行),每个新来的被堵住的线程,都要判断会不会由于自己的加入导致了死锁,这是一个时间复杂度是o(n)的操作。假设有1000个并发线程要同时更新同一行,那么死锁检测操作就是100万这个量级的。虽然最终检测的结果是没有死锁,但是这期间要消耗大量的cpu资源。因此,你就会看到cpu利用率很高,但是每秒却执行不了几个事务。
- 对于上述的情况,如果能确保这个业务一定不会出现死锁,可以临时把死锁检测关掉(头痛医头)
- 控制并发度,如过同一行同时最多只有10个线程在更新,那么死锁检测的成本很低,就不会cpu占用高的问题。这个并发控制最好是在数据库server端 / 中间件进行,而不能在客户端,因为通常会有很多客户端/很多连接/很多线程。其思路一般是:对于相同行的更新,在进入引擎之前排队。这样在innodb内部就不会有大量的死锁检测工作了。
- 将一行改成逻辑上的多行来减少锁冲突
- 如果出现很多事务都要更新同一行的场景(热点行),每个新来的被堵住的线程,都要判断会不会由于自己的加入导致了死锁,这是一个时间复杂度是o(n)的操作。假设有1000个并发线程要同时更新同一行,那么死锁检测操作就是100万这个量级的。虽然最终检测的结果是没有死锁,但是这期间要消耗大量的cpu资源。因此,你就会看到cpu利用率很高,但是每秒却执行不了几个事务。
但在涉及外部锁,或涉及锁的情况下,innodb并不能完全自动检测到死锁,这需要通过设置锁等待超时参数innodb_lock_wait_timeout来解决。需要说明的是,这个参数并不是只用来解决死锁问题,在并发访问比较高的情况下,如果大量事务因无法立即获取所需的锁而挂起,会占用大量计算机资源,造成严重性能问题,甚至拖垮数据库。我们通过设置合适的锁等待超时阈值,可以避免这种情况发生。
通常来说,死锁都是应用设计的问题,通过调整业务流程、数据库对象设计、事务大小、以及访问数据库的sql语句,绝大部分都可以避免。下面就通过实例来介绍几种死锁的常用方法。
(1)在应用中,如果不同的程序会并发存取多个表,应尽量约定以相同的顺序为访问表,这样可以大大降低产生死锁的机会。如果两个session访问两个表的顺序不同,发生死锁的机会就非常高!但如果以相同的顺序来访问,死锁就可能避免。
(2)在程序以批量方式处理数据的时候,如果事先对数据排序,保证每个线程按固定的顺序来处理记录,也可以大大降低死锁的可能。
(3)在事务中,如果要更新记录,应该直接申请足够级别的锁,即排他锁,而不应该先申请共享锁,更新时再申请排他锁,甚至死锁。
(4)在repeateable-read隔离级别下,如果两个线程同时对相同条件记录用select...ror update加排他锁,在没有符合该记录情况下,两个线程都会加锁成功。程序发现记录尚不存在,就试图插入一条新记录,如果两个线程都这么做,就会出现死锁。这种情况下,将隔离级别改成read committed,就可以避免问题。
(5)当隔离级别为read commited时,如果两个线程都先执行select...for update,判断是否存在符合条件的记录,如果没有,就插入记录。此时,只有一个线程能插入成功,另一个线程会出现锁等待,当第1个线程提交后,第2个线程会因主键重出错,但虽然这个线程出错了,却会获得一个排他锁!这时如果有第3个线程又来申请排他锁,也会出现死锁。对于这种情况,可以直接做插入操作,然后再捕获主键重异常,或者在遇到主键重错误时,总是执行rollback释放获得的排他锁。
尽管通过上面的设计和优化等措施,可以大减少死锁,但死锁很难完全避免。因此,在程序设计中总是捕获并处理死锁异常是一个很好的编程习惯。
如果出现死锁,可以用show engine innodb status命令来确定最后一个死锁产生的原因和改进措施。
加锁规则
两个“原则”、两个“优化”和一个“bug”:
- 原则1:加锁的基本单位是next-key lock。next-key lock是前开后闭区间。
- 原则2:查找过程中访问到的对象才会加锁。
- 优化1:索引上的等值查询,给唯一索引加锁的时候,next-key lock退化为行锁。
- 优化2:索引上的等值查询,向右遍历时且最后一个值不满足等值条件的时候,next-key lock退化为间隙锁。
- 一个bug:唯一索引上的范围查询会访问到不满足条件的第一个值为止。
示例
create table `t` (
`id` int(11) not null,
`c` int(11) default null,
`d` int(11) default null,
primary key (`id`),
key `c` (`c`)
) engine=innodb;
insert into t values(0,0,0),(5,5,5),
(10,10,10),(15,15,15),(20,20,20),(25,25,25);
执行以下语句:select * from t where d=5 for update,触发了什么锁?
可重复读隔离级别下:会给数据库中的记录都加上行锁,还同时加上n 个间隙锁(n为已有记录数)。确保无法再插入新的记录。在一行行扫描的过程中,不仅将给行加上了行锁,还给行两边的空隙也加上间隙锁。间隙锁和行锁合称next-key lock,每个next-key lock是前开后闭区间。我们的表t初始化以后,如果用select * from t for update要把整个表所有记录锁起来,就形成了7个next-key lock,分别是 (-∞,0]、(0,5]、(5,10]、(10,15]、(15,20]、(20, 25]、(25, supremum]。
读已提交下:语句执行完后,只有符合d=5的行会有行锁
总结
对于myisam的表锁,主要有以下几点
(1)共享读锁(s)之间是兼容的,但共享读锁(s)和排他写锁(x)之间,以及排他写锁之间(x)是互斥的,也就是说读和写是串行的。
(2)在一定条件下,myisam允许查询和插入并发执行,我们可以利用这一点来解决应用中对同一表和插入的锁争用问题。
(3)myisam默认的锁调度机制是写优先,这并不一定适合所有应用,用户可以通过设置low_pripority_updates参数,或在insert、update、delete语句中指定low_priority选项来调节读写锁的争用。
(4)由于表锁的锁定粒度大,读写之间又是串行的,因此,如果更新操作较多,myisam表可能会出现严重的锁等待,可以考虑采用innodb表来减少锁冲突。
对于innodb表,主要有以下几点
(1)innodb的行销是基于索引实现的,如果不通过索引访问数据,innodb会使用表锁。
(2)innodb间隙锁机制,以及innodb使用间隙锁的原因。
(3)在不同的隔离级别下,innodb的锁机制和一致性读策略不同。
(4)mysql的恢复和复制对innodb锁机制和一致性读策略也有较大影响。
(5)锁冲突甚至死锁很难完全避免。
在了解innodb的锁特性后,用户可以通过设计和sql调整等措施减少锁冲突和死锁,包括:
- 尽量使用较低的隔离级别
- 精心设计索引,并尽量使用索引访问数据,使加锁更精确,从而减少锁冲突的机会。
- 选择合理的事务大小,小事务发生锁冲突的几率也更小。
- 给记录集显示加锁时,最好一次性请求足够级别的锁。比如要修改数据的话,最好直接申请排他锁,而不是先申请共享锁,修改时再请求排他锁,这样容易产生死锁。
- 不同的程序访问一组表时,应尽量约定以相同的顺序访问各表,对一个表而言,尽可能以固定的顺序存取表中的行。这样可以大减少死锁的机会。
- 尽量用相等条件访问数据,这样可以避免间隙锁对并发插入的影响。
- 不要申请超过实际需要的锁级别;除非必须,查询时不要显示加锁。
- 对于一些特定的事务,可以使用表锁来提高处理速度或减少死锁的可能。