이 기사에서는 mysql에 대한 관련 지식을 제공합니다. 주로 mysql 딥 페이징 문제에 대한 우아한 솔루션을 소개합니다. 이 기사에서는 mysql 테이블에 많은 양의 데이터가 있을 때 딥 페이징 문제를 최적화하는 방법에 대해 설명합니다. 느린 SQL 문제를 최적화하는 최근 사례의 의사 코드가 모든 사람에게 도움이 되기를 바랍니다.
추천 학습: mysql 비디오 튜토리얼
일일 수요 개발 과정에서 모두가 Limit에 대해 잘 알고 있을 것이라고 생각하지만 Limit을 사용할 때 오프셋(Offset)이 매우 클 때 쿼리를 찾을 수 있습니다. 효율성이 점점 느려지고 있습니다. 처음에 제한이 2000이면 필요한 데이터를 쿼리하는 데 200ms가 걸릴 수 있지만 제한이 4000 오프셋 100000인 경우 쿼리 효율이 이미 약 1S가 필요하다는 것을 알 수 있습니다. 점점 더 느려집니다.
요약
이 글에서는 mysql 테이블에 대용량 데이터가 있을 때 딥 페이징 문제를 최적화하는 방법에 대해 논의하고, 최근 느린 SQL 문제를 최적화한 사례의 의사코드를 첨부하겠습니다.
1. 딥 페이징 문제 설명 제한
먼저 테이블 구조를 살펴보겠습니다(예를 들어보겠습니다. 테이블 구조가 불완전하고 쓸모 없는 필드가 표시되지 않습니다)
CREATE TABLE `p2p_detail_record` ( `id` varchar(32) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '主键', `batch_num` int NOT NULL DEFAULT '0' COMMENT '上报数量', `uptime` bigint NOT NULL DEFAULT '0' COMMENT '上报时间', `uuid` varchar(64) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '会议id', `start_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '开始时间', `answer_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '应答时间', `end_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '结束时间', `duration` int NOT NULL DEFAULT '0' COMMENT '持续时间', PRIMARY KEY (`id`), KEY `idx_uuid` (`uuid`), KEY `idx_start_time_stamp` (`start_time_stamp`) //索引, ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='p2p通话记录详情表';
우리가 원하는 딥 페이징 SQL을 가정해 보겠습니다. 쿼리는 이렇게 생겼어요
select * from p2p_detail_record ppdr where ppdr .start_time_stamp >1656666798000 limit 0,2000
쿼리 효율이 94ms인데 빠른가요? 따라서 100000 또는 2000으로 제한하면 쿼리 효율성은 1.5S로 이미 매우 느립니다.
2.SQL이 느려지는 원인 분석
이 SQL의 실행 계획을 살펴보겠습니다
인덱스에도 가는데 왜 아직도 느린걸까요? 먼저 mysql 관련 지식 포인트를 검토해 보겠습니다.
클러스터형 인덱스 및 비클러스터형 인덱스
클러스터형 인덱스: 리프 노드는 전체 데이터 행을 저장합니다.
비클러스터형 인덱스: 리프 노드는 데이터의 전체 행에 해당하는 기본 키 값을 저장합니다.
비클러스터형 인덱스 쿼리를 사용하는 과정
- 비클러스터형 인덱스 트리를 통해 해당 리프 노드를 찾아 기본키 값을 얻는다.
- 그런 다음 기본 키 값을 가져오고 클러스터형 인덱스 트리로 돌아가 해당 데이터의 전체 행을 찾습니다. (전체 프로세스를 테이블 리턴이라고 합니다)
이 SQL이 느린 이유에 대한 질문으로 돌아가서, 그 이유는 다음과 같습니다
1 제한 문은 먼저 오프셋+n 행을 스캔한 다음 삭제합니다. 이전 오프셋 행. n개 행의 데이터를 반환한 후. 즉, limit 100000,10
은 100010개의 행을 검색하고 limit 0,10
은 10개의 행만 검색합니다. 여기서는 테이블을 100010번 반환해야 하며 테이블을 반환하는 데 많은 시간이 소요됩니다. limit 100000,10
,就会扫描100010行,而limit 0,10
,只扫描10行。这里需要回表100010次,大量的时间都在回表这个上面。
方案核心思路: 能不能事先知道要从哪个主键ID开始,减少回表的次数
常见解决方案
通过子查询优化
select * from p2p_detail_record ppdr where id >= (select id from p2p_detail_record ppdr2 where ppdr2 .start_time_stamp >1656666798000 limit 100000,1) limit 2000
相同的查询结果,也是10W条开始的第2000条,查询效率为200ms,是不是快了不少。
标签记录法
标签记录法: 其实标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。类似书签的作用
select * from p2p_detail_record ppdr where ppdr.id > 'bb9d67ee6eac4cab9909bad7c98f54d4' order by id limit 2000 备注:bb9d67ee6eac4cab9909bad7c98f54d4是上次查询结果的最后一条ID
使用标签记录法,性能都会不错的,因为命中了id
솔루션의 핵심 아이디어:
- 일반적인 솔루션
- 하위 쿼리를 통해 최적화
CREATE TABLE `p2p_detail_record` ( `id` varchar(32) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '主键', `batch_num` int NOT NULL DEFAULT '0' COMMENT '上报数量', `uptime` bigint NOT NULL DEFAULT '0' COMMENT '上报时间', `uuid` varchar(64) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '会议id', `start_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '开始时间', `answer_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '应答时间', `end_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '结束时间', `duration` int NOT NULL DEFAULT '0' COMMENT '持续时间', PRIMARY KEY (`id`), KEY `idx_uuid` (`uuid`), KEY `idx_start_time_stamp` (`start_time_stamp`) //索引, ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='p2p通话记录详情表';
동일 쿼리 결과도 100,000개 항목에서 시작하여 2000번째 기사이며, 쿼리 효율성은 200ms로 훨씬 빠릅니다.

- 태그 기록 방법 : 사실, 지난번에 확인했던 항목을 표시해두고, 다음에 다시 확인할 때는 해당 항목부터 아래로 스캔하세요. 북마크와 유사
//最小ID String lastId = null; //一页的条数 Integer pageSize = 2000; List<P2pRecordVo> list ; do{ list = listP2pRecordByPage(lastId,pageSize); //标签记录法,记录上次查询过的Id lastId = list.get(list.size()-1).getId(); //获取上一次查询数据最后的ID,用于记录 //对数据的操作逻辑 XXXXX(); }while(isNotEmpty(list)); <select id ="listP2pRecordByPage"> select * from p2p_detail_record ppdr where 1=1 <if test = "lastId != null"> and ppdr.id > #{lastId} </if> order by id asc limit #{pageSize} </select>태그 기록 방식을 사용하면
id
인덱스를 적중시키므로 성능이 좋습니다. 하지만 이 방법에는 몇 가지 단점이 있습니다. 1. 여러 페이지가 아닌 연속된 페이지에서만 쿼리할 수 있습니다. 2. continuous auto-increment와 유사한 필드가 필요합니다(orber by id 사용 가능).
- 솔루션 비교
방법
이용: 페이지 간 쿼리가 가능하며, 원하는 페이지에서 데이터를 확인할 수 있습니다.
🎜단점: 🎜 🎜태그 기록 방법🎜만큼 효율적이지 않습니다. 🎜이유:🎜 예를 들어 100,000개의 데이터를 확인해야 하는 경우에는 Non-Clustered Index에 해당하는 1000번째 데이터도 먼저 쿼리한 다음 100,000번째부터 ID를 얻어 쿼리해야 합니다. 🎜🎜🎜🎜태그 기록 방법을 사용하면🎜🎜🎜🎜🎜장점: 🎜 쿼리 효율성이 매우 안정적이고 매우 빠릅니다. 🎜🎜🎜단점:🎜🎜- 不跨页查询,
- 需要一种类似连续自增的字段
关于第二点的说明: 该点一般都好解决,可使用任意不重复的字段进行排序即可。若使用可能重复的字段进行排序的字段,由于mysql对于相同值的字段排序是无序,导致如果正好在分页时,上下页中可能存在相同的数据。
实战案例
需求: 需要查询查询某一时间段的数据量,假设有几十万的数据量需要查询出来,进行某些操作。
需求分析 1、分批查询(分页查询),设计深分页问题,导致效率较慢。
CREATE TABLE `p2p_detail_record` ( `id` varchar(32) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '主键', `batch_num` int NOT NULL DEFAULT '0' COMMENT '上报数量', `uptime` bigint NOT NULL DEFAULT '0' COMMENT '上报时间', `uuid` varchar(64) COLLATE utf8mb4_bin NOT NULL DEFAULT '' COMMENT '会议id', `start_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '开始时间', `answer_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '应答时间', `end_time_stamp` bigint NOT NULL DEFAULT '0' COMMENT '结束时间', `duration` int NOT NULL DEFAULT '0' COMMENT '持续时间', PRIMARY KEY (`id`), KEY `idx_uuid` (`uuid`), KEY `idx_start_time_stamp` (`start_time_stamp`) //索引, ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='p2p通话记录详情表';
伪代码实现:
//最小ID String lastId = null; //一页的条数 Integer pageSize = 2000; List<P2pRecordVo> list ; do{ list = listP2pRecordByPage(lastId,pageSize); //标签记录法,记录上次查询过的Id lastId = list.get(list.size()-1).getId(); //获取上一次查询数据最后的ID,用于记录 //对数据的操作逻辑 XXXXX(); }while(isNotEmpty(list)); <select id ="listP2pRecordByPage"> select * from p2p_detail_record ppdr where 1=1 <if test = "lastId != null"> and ppdr.id > #{lastId} </if> order by id asc limit #{pageSize} </select>
这里有个小优化点: 可能有的人会先对所有数据排序一遍,拿到最小ID,但是这样对所有数据排序,然后去min(id),耗时也蛮长的,其实第一次查询,可不带lastId进行查询,查询结果也是一样。速度更快。
总结
1、当业务需要从表中查出大数据量时,而又项目架构没上ES时,可考虑使用标签记录法的方式,对查询效率进行优化。
2、从需求上也应该尽可能避免,在大数据量的情况下,分页查询最后一页的功能。或者限制成只能一页一页往后划的场景。
推荐学习:mysql视频教程
위 내용은 mysql 딥 페이징 문제를 해결하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

InnoDB는 Redologs 및 Undologs를 사용하여 데이터 일관성과 신뢰성을 보장합니다. 1. Redologs는 사고 복구 및 거래 지속성을 보장하기 위해 데이터 페이지 수정을 기록합니다. 2. 결점은 원래 데이터 값을 기록하고 트랜잭션 롤백 및 MVCC를 지원합니다.

설명 명령에 대한 주요 메트릭에는 유형, 키, 행 및 추가가 포함됩니다. 1) 유형은 쿼리의 액세스 유형을 반영합니다. 값이 높을수록 Const와 같은 효율이 높아집니다. 2) 키는 사용 된 인덱스를 표시하고 NULL은 인덱스가 없음을 나타냅니다. 3) 행은 스캔 한 행의 수를 추정하여 쿼리 성능에 영향을 미칩니다. 4) Extra는 최적화해야한다는 Filesort 프롬프트 사용과 같은 추가 정보를 제공합니다.

Temporary를 사용하면 MySQL 쿼리에 임시 테이블을 생성해야 할 필요성이 있으며, 이는 별개의, 그룹 비 또는 비 인덱스 열을 사용하여 순서대로 발견됩니다. 인덱스 발생을 피하고 쿼리를 다시 작성하고 쿼리 성능을 향상시킬 수 있습니다. 구체적으로, 설명 출력에 사용되는 경우, MySQL은 쿼리를 처리하기 위해 임시 테이블을 만들어야 함을 의미합니다. 이것은 일반적으로 다음과 같은 경우에 발생합니다. 1) 별개 또는 그룹을 사용할 때 중복 제거 또는 그룹화; 2) OrderBy가 비 인덱스 열이 포함되어있을 때 정렬하십시오. 3) 복잡한 하위 쿼리 또는 조인 작업을 사용하십시오. 최적화 방법은 다음과 같습니다. 1) Orderby 및 GroupB

MySQL/InnoDB는 4 개의 트랜잭션 격리 수준을 지원합니다. Readuncommitted, ReadCommitted, ReturableRead 및 Serializable. 1. READUCMITTED는 커밋되지 않은 데이터를 읽을 수 있으므로 더러운 판독 값을 유발할 수 있습니다. 2. ReadCommitted는 더러운 읽기를 피하지만 반복 할 수없는 독서가 발생할 수 있습니다. 3. RepeatableRead는 더러운 읽기와 반복 할 수없는 독서를 피하는 기본 레벨이지만 팬텀 독서가 발생할 수 있습니다. 4. 직렬화 가능한 것은 모든 동시성 문제를 피하지만 동시성을 줄입니다. 적절한 격리 수준을 선택하려면 균형 잡힌 데이터 일관성 및 성능 요구 사항이 필요합니다.

MySQL은 웹 응용 프로그램 및 컨텐츠 관리 시스템에 적합하며 오픈 소스, 고성능 및 사용 편의성에 인기가 있습니다. 1) PostgreSQL과 비교하여 MySQL은 간단한 쿼리 및 높은 동시 읽기 작업에서 더 잘 수행합니다. 2) Oracle과 비교할 때 MySQL은 오픈 소스와 저렴한 비용으로 인해 중소 기업에서 더 인기가 있습니다. 3) Microsoft SQL Server와 비교하여 MySQL은 크로스 플랫폼 응용 프로그램에 더 적합합니다. 4) MongoDB와 달리 MySQL은 구조화 된 데이터 및 트랜잭션 처리에 더 적합합니다.

MySQL Index Cardinality는 쿼리 성능에 중대한 영향을 미칩니다. 1. 높은 카디널리티 인덱스는 데이터 범위를보다 효과적으로 좁히고 쿼리 효율성을 향상시킬 수 있습니다. 2. 낮은 카디널리티 인덱스는 전체 테이블 스캔으로 이어질 수 있으며 쿼리 성능을 줄일 수 있습니다. 3. 관절 지수에서는 쿼리를 최적화하기 위해 높은 카디널리티 시퀀스를 앞에 놓아야합니다.

MySQL 학습 경로에는 기본 지식, 핵심 개념, 사용 예제 및 최적화 기술이 포함됩니다. 1) 테이블, 행, 열 및 SQL 쿼리와 같은 기본 개념을 이해합니다. 2) MySQL의 정의, 작업 원칙 및 장점을 배우십시오. 3) 인덱스 및 저장 절차와 같은 기본 CRUD 작업 및 고급 사용량을 마스터합니다. 4) 인덱스의 합리적 사용 및 최적화 쿼리와 같은 일반적인 오류 디버깅 및 성능 최적화 제안에 익숙합니다. 이 단계를 통해 MySQL의 사용 및 최적화를 완전히 파악할 수 있습니다.

MySQL의 실제 응용 프로그램에는 기본 데이터베이스 설계 및 복잡한 쿼리 최적화가 포함됩니다. 1) 기본 사용 : 사용자 정보 삽입, 쿼리, 업데이트 및 삭제와 같은 사용자 데이터를 저장하고 관리하는 데 사용됩니다. 2) 고급 사용 : 전자 상거래 플랫폼의 주문 및 재고 관리와 같은 복잡한 비즈니스 로직을 처리합니다. 3) 성능 최적화 : 인덱스, 파티션 테이블 및 쿼리 캐시를 사용하여 합리적으로 성능을 향상시킵니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

Dreamweaver Mac版
시각적 웹 개발 도구

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.
