查询偏移量过大的场景称为深度分页,这会导致查询性能较低,例如:
-- MySQL 在无法利用索引的情况下跳过1000000条记录后,再获取10条记录 SELECT * FROM t_order ORDER BY id LIMIT 1000000, 10 执行如下语句建表:
CREATE TABLE `test_big_data` ( `id` bigint NOT NULL AUTO_INCREMENT, `name` varchar(64) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL, `add_time` bigint NOT NULL, `update_time` bigint DEFAULT NULL, `del` tinyint NOT NULL DEFAULT '0', PRIMARY KEY (`id`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8; CREATE PROCEDURE test_insert_bigdata() begin declare i int(11) default 1; while i < 10000000 DO INSERT INTO test_big_data(name, add_time, update_time, del) VALUES (CONCAT("itlgitlg",SUBSTRING(MD5(RAND()),1,30)), (SELECT 1419955200- (FLOOR(1 + (RAND() * 12)) * 2678400) - (FLOOR(1 + (RAND() * 31)) * 86400) - FLOOR(1 + (RAND() * 86400))), (SELECT 1419955200- (FLOOR(1 + (RAND() * 12)) * 2678400) - (FLOOR(1 + (RAND() * 31)) * 86400) - FLOOR(1 + (RAND() * 86400))), 0); SET i = i + 1; END WHILE ; commit; end call test_insert_bigdata() 导入数据后才创建,保证初始化数据速度
CREATE INDEX idx_name_update_time USING BTREE ON test.test_big_data (name,update_time); 执行语句
// 查看数据库最大id记录 select max(id) from test_big_data 
当MyBatis执行SQL语句:
select * from test_big_data where name like 'itlgitlg%' limit 800000,10 该查询分页需要扫描800000 +10行数据,然后丢掉前面800000行记录,同时进行800000+10次回表,总计耗时7.5秒;
limit语句会先扫描offset+n行,然后再丢弃掉前offset行,返回后n行数据;
limit 800000 +10 扫描更多的行数,也意味着回表更多(800000 +10)的次数。
这个任务还是在MySQL没有其他任务处理时的执行情况,若在生产环境,效率会更差,接口响应会更慢,因此这也是一种SQL优化场景。
当可以保证 ID 的连续性时(有索引更佳),可根据 ID 范围进行分页:
# 查询指定 ID 范围的数据 SELECT * FROM test_big_dataWHERE id > 800000 AND id <= 100010 ORDER BY id # 也可以通过记录上次查询结果的最后一条记录的ID进行下一页的查询: SELECT * FROM test_big_dataWHERE id > 800000 LIMIT 10 先查询出 limit 第一个参数对应的主键值,再根据这个主键值再去过滤并 limit,这样效率会更快一些。
# 通过子查询来获取 id 的起始值,把 limit 1000000 的条件转移到子查询 SELECT * FROM test_big_dataWHERE id >= (SELECT id FROM test_big_data limit 8000000, 1) LIMIT 10; 只适用于 ID 是正序的,子查询的结果会产生一张新表,会影响性能,应该尽量避免大量使用子查询。
由于name、update_time创建联合索引,若业务上,所需的字段都在索引上,可以使用覆盖索引来优化SQL,减少数据库的回表操作;如下sql:
select name,update_time from test_big_data where name like 'itlgitlg%' limit 800000,10 sql耗时470ms左右:
避免 InnoDB 表进行索引的二次查询,也就是回表操作,可以把随机 IO 变成顺序 IO 加快查询效率。
不过,当查询的结果集占表的总行数的很大一部分时,可能就不会走索引,自动转换为全表扫描。就算强制索引force index(id) 效果也不明显,需要读取大量的索引页,频繁回表等随机IO。
优化思路:跟子查询的优化思路是一样的,把条件转移到主键索引树,然后减少回表。不同点是,延迟关联使用inner join代替子查询。
先通过二级索引查询主键,再通过主键关联,减少回表提升性能,,优化后SQL为:
select a.* from test_big_data a inner join (select id from test_big_data where name like 'itlgitlg%' limit 800000,10) t on a.id = t.id sql耗时为466ms:
ps:
MySQL B+树索引: InnoDB存储引擎中,索引分主键索引(聚簇索引)和二级索引 主键索引:叶子节点存放的是整行数据 二级索引:叶子节点存放的是主键的值; 回表:在InnoDB存储引擎下,二级索引查询到的索引列,如果需要查找所有列的数据,则需要到主键索引里面去取出数据。这个过程就称为回表。因为行的数据都是存在主键B+tree的叶子节点里面,二级索引的B+树叶子节点都是存放的(索引列,主键)。 limit 深度分页问题本质原因:偏移量(offset)越大,mysql就会扫描越多的行,然后再抛弃掉。这样就导致查询性能的下降。
标签记录的思想:就是标记一下上次查询到哪一条,下次再来查的时候,从该条开始往下扫描。
则SQL可以修改为:
select * from test_big_data where name like 'itlgitlg%' and id > 800000 order by id asc limit 0,10 执行耗时10ms左右:
求按照id连续查询,或者其他连续自增字段查询(如更新时间)每次查询后将最大值返给前端;下一次查询时,前端将最大值带到后端查询,实际中可能很多场景不支持。
MySQL在4.1之前都是双路排序,之后优化改为满足条件默认单路排序,条件为:查询字段数据大小小于max_length_for_sort_data值,但改到最小值测试也没有看到变化。
因此,子查询方式快的原因是:子查询只取create_time+id到sort buffer(相当于双路排序的做法), 相比直接查询,省去绝大部分字段,减少大量临时文件IO操作,因此提高查询效率。
另一个方法调整sort_buffer_size大小,锦上添花,不能做为深分页的优化方案
避免深度分页,可以从以下方面考虑: