测试版本:MySQL5.6.23

    测试表:

    1. create table t1 (a int auto_increment primary key, b int, c int, unique key (b));并发执行SQL
    2. replace into t1(b,c) values (2,3) //使用脚本,超过3个会话

    背景

    Replace into操作可以算是比较常用的操作类型之一,当我们不确定即将插入的记录是否存在唯一性冲突时,可以通过Replace into的方式让MySQL自动处理:当存在冲突时,会把旧记录替换成新的记录。

    我们先来理一下一条简单的replace into操作(如上例所示)的主要流程包括哪些。

    Step 1. 正常的插入逻辑

    首先插入聚集索引记录,在上例中a列为自增列,由于未显式指定自增值,每次Insert前都会生成一个不冲突的新值。

    随后插入二级索引b,由于其是唯一索引,在检查duplicate key时,为其加上类型为LOCK_X的记录锁。

    Tips:对于普通的INSERT操作,当需要检查duplicate key时,加LOCK_S锁,而对于Replace into 或者 INSERT..ON DUPLICATE操作,则加LOCK_X记录锁。

    当UK记录已经存在时,返回错误DB_DUPLICATE_KEY。

    Step 2. 处理错误

    由于检测到duplicate key,因此第一步插入的聚集索引记录需要被回滚掉(row_undo_ins)。

    Step 3. 转换操作

    从InnoDB层失败返回到Server层后,收到duplicate key错误,首先检索唯一键冲突的索引,并对冲突的索引记录(及聚集索引记录)加锁。

    随后确认转换模式以解决冲突:

    • 如果发生uk冲突的索引是最后一个唯一索引、没有外键引用、且不存在delete trigger时,使用UPDATE ROW的方式来解决冲突;
    • 否则,使用DELETE ROW + INSERT ROW的方式解决冲突。

    Step 4. 更新记录

    对于聚集索引,由于PK列发生变化,采用delete + insert 聚集索引记录的方式更新。

    对于二级uk索引,同样采用标记删除 + 插入的方式。

    我们知道,在尝试插入一条记录时,如果插入位置的下一条记录上存在记录锁,那么在插入时,当前session需要对其加插入意向锁,具体类型为LOCK_X | LOCK_GAP | LOCK_INSERT_INTENTION。这也是导致死锁的关键点之一。

    是否能保证自增列的有序性?

    默认情况下,参数innodb_autoinc_lock_mode的值为1,因此只在分配自增列时互斥(如果我们将其设为0的话,就会产生AUTO_INC类型的表级锁)。当分配完自增列值后,我们并不知道并发的replace into的顺序。

    死锁分析

    回到死锁线程分析,从死锁日志我们大致可以推断出如下序列(本例中死锁的heap no为5):

    • Session 1 执行到Step4, 准备更新二级Uk索引,因此持有uk上heap no 为5的X 行锁和PK上的X行锁;
    • Session 2 检查到uk冲突,需要加X行锁;
    • Session 1 在标记删除记录后,尝试插入新的uk记录,发现预插入点的下一条记录(heap no =5) 上有锁请求,因此尝试加插入意向X锁,产生锁升级, 死锁路径:Session1 => Session 2 => Session1。

    到这里其实问题已经很明显了,我们考虑如下场景:假设当前表内数据为:

    1. root@sb1 08:57:41>select * from t1;
    2. +---------+------+------+
    3. | a | b | c |
    4. +---------+------+------+
    5. | 2100612 | 2 | 3 |
    6. +---------+------+------+
    7. 1 row in set (0.00 sec)

    由于不能保证自增列被更新的有序性,我们假定有三个并发的会话,并假定表上只有一条记录。

    session 1获得自增列值为2100619, session 2 获得的自增列值为2100614, session 3获得的自增列值为2100616。

    Session 1: replace into t1 values (2100619, 2, 3); // uk索引上记录(2, 2100612)被标记删除,同时插入新记录(2, 2100619)

    • Purge线程启动,(2, 2100612)被物理删除,Page上只剩下唯一的物理记录(2, 2100619)。

    Session 2: replace into t1 values (2100614, 2, 3);

    这里我们使用gdb的non-stop模式,使其断在row_update_for_mysql函数(insert尝试失败后,会转换成update),此时session2持有(2, 2100619) 的X锁。

    1. Tips:我们可以通过如下命令使用gdbnon-stop模式:
    2. 1\. gdb启动mysqld
    3. 2\. 设置:
    4. set target-async 1
    5. set pagination off
    6. set non-stop on
    7. 3\. 设置函数断点,然后run

    Session 3: replace into t1 values (2100616, 2, 3); // 检测到uk有冲突键,需要获取记录(2, 2100619) 的X锁,等待session 2。

    Session 2:

    • a)标记删除记录(2, 2100619),同时插入新记录(2, 2100614);
    • b) (2, 2100614) 比(2, 2100619) 要小,因此定位到该记录之前,也就是系统记录infimum;
    • c)infimum记录的下一条记录(2, 2100619)上有锁等待,需要升级成插入意向X锁,导致死锁发生。

    如果Purge线程一直停止,会发生什么呢 ?

    我们随便建一个表,然后执行FLUSH TABLE tbname FOR EXPORT来让purge线程停止。

    假设当前表上数据为:

    1. root@sb1 10:26:05>select * from t1;
    2. +---------+------+------+
    3. | a | b | c |
    4. +---------+------+------+
    5. | 2100710 | 2 | 3 |
    6. +---------+------+------+
    7. 1 row in set (0.00 sec)

    Session 1:replace into t1 values (2100720, 2, 3);

    此时Page上存在记录(infimum), (2, 2100710), (2, 2100720), (supremum)。

    Session 2:replace into t1 values (2100715, 2, 3);

    同上例,使用gdb断到函数row_update_for_mysql。由于没有启动purge线程,因此老的被标记删除的记录还存在于page内,在扫描二级索引重复键时,也会依次给这些老记录加锁,因此session 2会持有 (2, 2100710)和 (2, 2100720)的X锁。

    Session 3:replace into t1 values (2100718, 2, 3); // 被session2阻塞,等待(2,2100710)的X锁

    Session 2:在标记删除二级索引记录,并进行插入时,选择的插入位置为 (2, 2100710), (2,2100720)之间,插入点的下一条记录(2,2100720)上没有其他线程锁等待,当前session锁升级成功;

    完成插入后,page上的记录分布为(infimum), (2, 2100710), (2, 2100715), (2, 2100720), (supremum)。

    Session 3:完成插入,最终page内的记录为(infimum), (2, 2100710), (2, 2100715), (2, 2100718), (2, 2100720), (supremum)。其中只有用户记录(2, 2100718)未被标记删除。