本篇文章為大家帶來了關於mysql的相關知識,主要介紹了優雅地解決mysql深分頁問題,本文將會討論當mysql表大數據量的情況,如何優化深分頁問題,並附上最近的優化慢sql問題的案例偽代碼,希望對大家有幫助。
推薦學習:mysql影片教學
#日常需求開發過程中,相信大家對於limit一定不會陌生,但使用limit時,當偏移(offset)非常大時,會發現查詢效率越來越慢。一開始limit 2000時,可能200ms,就能查詢出需要的到數據,但是當limit 4000 offset 100000時,會發現它的查詢效率已經需要1S左右,那要是更大的時候呢,只會越來越慢。
本文將會討論當mysql表大數據量的情況,如何優化深分頁問題,並附上最近的優化慢sql問題的案例偽代碼。
先看看表格結構(隨便舉了個例子,表結構不全,無用字段就不進行展示了)
CREATE TABLE `p2p_detail_record` ( `id` varchar(32) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '主键', `batch_num` int NOT NULL DEFAULT '0' COMMENT '上报数量', `uptime` bigint NOT NULL DEFAULT '0' COMMENT '上报时间', `uuid` varchar(64) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '会议id', `start_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '开始时间', `answer_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '应答时间', `end_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '结束时间', `duration` int NOT NULL DEFAULT '0' COMMENT '持续时间', PRIMARY KEY (`id`), KEY `idx_uuid` (`uuid`), KEY `idx_start_time_stamp` (`start_time_stamp`) //索引, ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='p2p通话记录详情表';
假設我們要查詢的深分頁SQL長這樣
select * from p2p_detail_record ppdr where ppdr .start_time_stamp >1656666798000 limit 0,2000
查詢效率是94ms,是不是很快?那如果我們limit 100000,2000呢,查詢效率是1.5S,已經非常慢,那如果更多呢?
讓我們來看看這個sql的執行計畫
也走到了索引,那為什麼還是慢呢?我們先來回顧一下mysql 的相關知識點。
叢集索引: 葉子節點儲存的是整行的資料。
非叢集索引: 葉子節點儲存的是整行的資料對應的主鍵值。
使用非叢集索引查詢的流程
回到這條sql為什麼慢的問題上,原因如下
1、limit語句會先掃描offset n行,然後丟棄掉前offset行,回傳後n行資料。也就是說limit 100000,10
,就會掃描100010行,而limit 0,10
,只掃描10行。這裡要回表100010次,大量的時間都在回表這個上面。
方案核心思路: 能不能事先知道要從哪個主鍵ID開始,減少回表的次數
select * from p2p_detail_record ppdr where id >= (select id from p2p_detail_record ppdr2 where ppdr2 .start_time_stamp >1656666798000 limit 100000,1) limit 2000
相同的查詢結果,也是10W條開始的第2000條,查詢效率為200ms,是不是快了不少。
標籤記錄法: 其實標記一下上次查詢到哪一條了,下次再來查的時候,從該條開始往下掃描。 類似書籤的作用
select * from p2p_detail_record ppdr where ppdr.id > 'bb9d67ee6eac4cab9909bad7c98f54d4' order by id limit 2000 备注:bb9d67ee6eac4cab9909bad7c98f54d4是上次查询结果的最后一条ID
使用標籤記錄法,效能都會不錯的,因為命中了id
索引。但是這種方式有幾個缺點。
##優點:可跨頁查詢,想查哪一頁的資料就查哪一頁的資料。
缺點: 效率不如標籤記錄法。 原因: 例如需要查10W條數據後,第1000條,也需要先查詢出非聚簇索引對應的10W1000條數據,在取第10W開始的ID,進行查詢。
#優點: 查詢效率很穩定,而且非常快速。
缺點:#
关于第二点的说明: 该点一般都好解决,可使用任意不重复的字段进行排序即可。若使用可能重复的字段进行排序的字段,由于mysql对于相同值的字段排序是无序,导致如果正好在分页时,上下页中可能存在相同的数据。
需求: 需要查询查询某一时间段的数据量,假设有几十万的数据量需要查询出来,进行某些操作。
需求分析 1、分批查询(分页查询),设计深分页问题,导致效率较慢。
CREATE TABLE `p2p_detail_record` ( `id` varchar(32) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '主键', `batch_num` int NOT NULL DEFAULT '0' COMMENT '上报数量', `uptime` bigint NOT NULL DEFAULT '0' COMMENT '上报时间', `uuid` varchar(64) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '会议id', `start_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '开始时间', `answer_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '应答时间', `end_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '结束时间', `duration` int NOT NULL DEFAULT '0' COMMENT '持续时间', PRIMARY KEY (`id`), KEY `idx_uuid` (`uuid`), KEY `idx_start_time_stamp` (`start_time_stamp`) //索引, ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='p2p通话记录详情表';
伪代码实现:
//最小ID String lastId = null; //一页的条数 Integer pageSize = 2000; List<P2pRecordVo> list ; do{ list = listP2pRecordByPage(lastId,pageSize); //标签记录法,记录上次查询过的Id lastId = list.get(list.size()-1).getId(); //获取上一次查询数据最后的ID,用于记录 //对数据的操作逻辑 XXXXX(); }while(isNotEmpty(list)); <select id ="listP2pRecordByPage"> select * from p2p_detail_record ppdr where 1=1 <if test = "lastId != null"> and ppdr.id > #{lastId} </if> order by id asc limit #{pageSize} </select>
这里有个小优化点: 可能有的人会先对所有数据排序一遍,拿到最小ID,但是这样对所有数据排序,然后去min(id),耗时也蛮长的,其实第一次查询,可不带lastId进行查询,查询结果也是一样。速度更快。
1、当业务需要从表中查出大数据量时,而又项目架构没上ES时,可考虑使用标签记录法的方式,对查询效率进行优化。
2、从需求上也应该尽可能避免,在大数据量的情况下,分页查询最后一页的功能。或者限制成只能一页一页往后划的场景。
推荐学习:mysql视频教程
以上是怎樣解決mysql深分頁問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!