>  기사  >  시스템 튜토리얼  >  실시간 추출 및 로그 기반 데이터 동기화 일관성

실시간 추출 및 로그 기반 데이터 동기화 일관성

王林
王林앞으로
2024-01-16 14:36:05614검색

작성자: 왕동

CreditEase 기술 R&D 센터 설계자

  • 현재 CreditEase Technology R&D Center에서 스트리밍 컴퓨팅 및 빅데이터 비즈니스 제품 솔루션을 담당하는 아키텍트로 일하고 있습니다.
  • 네이버차이나(국내 최대 검색 엔진 회사) 중국 R&D 센터에서 수석 엔지니어로 근무했으며 수년간 CUBRID 분산 데이터베이스 클러스터 개발 및 CUBRID 데이터베이스 엔진 개발에 참여했습니다. http://www.cubrid .org/blog/news/cubrid-cluster-소개/

테마 소개:

  1. DWS 배경 소개
  2. dbus+웜홀 전체 아키텍처 및 기술 구현 계획
  3. DWS 실제 적용 사례
머리말

안녕하세요 여러분, 저는 CreditEase Technology R&D Center의 Wang Dong입니다. 처음으로 커뮤니티에 부족한 점이 있으면 지적해 주시고 양해해 주시기 바랍니다.

이 공유의 주제는 "로그 기반 DWS 플랫폼의 구현 및 적용"이며, 주로 CreditEase에서 현재 진행 중인 작업 중 일부를 공유합니다. 이 주제에는 두 팀의 많은 형제자매들의 노력의 결과(우리 팀과 Shanwei 팀의 결과)가 포함되어 있습니다. 이번에는 제가 대신해서 글을 써서 여러분께 소개할 수 있도록 최선을 다하겠습니다.

사실 전체 구현은 원칙적으로 비교적 간단하며, 물론 많은 기술도 필요합니다. 나는 모든 사람이 이 문제의 원리와 의의를 이해할 수 있도록 가능한 한 가장 간단한 방법으로 표현하려고 노력할 것입니다. 그 과정에서 궁금한 점이 있으시면 언제든지 질문해 주시면 최선을 다해 답변해 드리겠습니다.

DWS는 약어이며 3개의 하위 프로젝트로 구성되어 있는데 이에 대해서는 나중에 설명하겠습니다.

1. 배경

문제는 얼마 전 회사의 요구에서 시작되었습니다. CreditEase가 인터넷 금융 회사라는 것은 누구나 알고 있습니다. 우리의 데이터는 일반적으로 다음과 같습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

데이터를 가지고 노는 사람은 누구나 데이터가 매우 가치 있다는 것을 알고 있으며, 이러한 데이터는 다양한 시스템의 데이터베이스에 저장되어 있습니다. 데이터가 필요한 사용자는 어떻게 일관성 있는 실시간 데이터를 얻을 수 있습니까?

과거에는 몇 가지 일반적인 관행이 있었습니다.
    DBA는 업무량이 적은 시간(예: 야간)에 각 시스템의 백업 데이터베이스를 엽니다. 추출 시간의 차이, 다양한 데이터 사용자 간의 데이터 불일치, 데이터 충돌, 반복적인 추출 등으로 인해 많은 DBA들이 고민을 하게 될 것이라고 생각합니다.
  1. 회사의 통합 빅데이터 플랫폼은 Sqoop을 이용하여 업무 비수기에 다양한 시스템에서 데이터를 균일하게 추출하여 Hive 테이블에 저장한 후 다른 데이터 사용자에게 데이터 서비스를 제공합니다. 이 접근 방식은 일관성 문제를 해결하지만 적시성은 좋지 않습니다. 기본적으로 T+1 적시성입니다.
  2. 트리거를 기반으로 증분 변경 사항을 얻는 주요 문제는 비즈니스 측면의 방해가 심하고 트리거도 성능 손실을 초래한다는 것입니다.
이러한 솔루션 중 어느 것도 완벽하지 않습니다. 다양한 구현 방법을 이해하고 고민한 끝에 마침내 linkin의 아이디어를 도출했고, 데이터 일관성과 실시간 성능을 동시에 해결하려면 로그에서 보다 합리적인 방법이 나와야 한다고 믿었습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

(이 사진 출처: https://www.confluent.io/blog/using-logs-to-build-a-solid-data-infrastructure-or-why-dual-writes-are-a-bad-idea / )

증분 로그를 모든 시스템의 기초로 사용하세요. 후속 데이터 사용자는 kafka를 구독하여 로그를 사용합니다.

예:

    빅 데이터 사용자는 Hive 또는 Spark 쿼리를 위해 Hive 테이블이나 Parquet 파일에 데이터를 저장할 수 있습니다.
  • 검색 서비스를 제공하는 사용자는 이를 Elasticsearch 또는 HBase에 저장할 수 있습니다.
  • 캐싱 서비스를 제공하는 사용자는 Redis 또는 alluxio에 로그를 캐시할 수 있습니다.
  • 데이터 동기화 사용자는 자신의 데이터베이스에 데이터를 저장할 수 있습니다.
  • Kafka의 로그는 반복적으로 소비되고 일정 기간 동안 캐시될 수 있으므로 각 사용자는 Kafka의 로그를 소비하여 데이터베이스와의 일관성을 유지하고 실시간 성능을 보장할 수 있습니다.
  • 추출에 Sqoop을 사용하는 대신 로그와 Kafka를 기반으로 사용하는 이유는 무엇입니까? 왜냐하면:

이중 쓰기를 사용하지 않는 이유는 무엇인가요? , https://www.confluent.io/blog/using-logs-to-build-a-solid-data-infrastructure-or-why-dual-writes-are-a-bad-idea/

를 참조하세요. 실시간 추출 및 로그 기반 데이터 동기화 일관성여기서는 자세히 설명하지 않겠습니다.

2. 전체 구조

그래서 우리는 로그를 기반으로 기업 차원의 플랫폼을 구축하자는 아이디어를 생각해 냈습니다.

다음은 DWS 플랫폼에 대한 설명입니다. DWS 플랫폼은 3개의 하위 프로젝트로 구성됩니다.

  1. Dbus(데이터 버스): 소스에서 실시간으로 데이터를 추출하여 자체 스키마를 사용하여 합의된 json 형식 데이터(UMS 데이터)로 변환하고 kafka에 넣는 역할을 담당합니다.
  2. Wormhole(데이터 교환 플랫폼): kafka에서 데이터를 읽고 대상에 데이터를 쓰는 역할을 담당합니다.
  3. Swifts(실시간 컴퓨팅 플랫폼):
  4. kafka에서 데이터를 읽고, 실시간으로 계산하고, 다시 kafka에 데이터를 쓰는 일을 담당합니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성사진 속:

로그 추출기와 dbus가 함께 작동하여 데이터 추출 및 데이터 변환을 완료합니다. 추출에는 전체 추출과 증분 추출이 포함됩니다.
  • Wormhole은 모든 로그 데이터를 HDFS에 저장할 수 있으며, HBash, Elasticsearch, Cassandra 등을 포함하여 jdbc를 지원하는 모든 데이터베이스에 데이터를 구현할 수도 있습니다.
  • Swifts는 스트리밍 조인, 조회, 필터, 창 집계 및 기타 기능 지원을 포함하여 구성 및 SQL을 통해 스트리밍 계산을 지원합니다.
  • Dbus 웹은 dbus의 구성 관리 끝부분이며, rider에는 구성 관리 외에도 Wormhole 및 Swifts의 런타임 관리, 데이터 품질 검증 등이 포함됩니다.
  • 시간의 제약으로 인해 오늘은 DWS의 Dbus와 Wormhole을 주로 소개하고, 필요할 경우 Swifts도 소개하겠습니다.

3.디버스 솔루션
로그 분석
앞서 언급했듯이 Dbus의 주요 솔루션은 소스에서 실시간으로 로그를 추출하는 것입니다. 여기서는 MySQL을 예로 들어 구현 방법을 간략하게 설명합니다. MySQL InnoDB에는 자체 로그가 있지만 MySQL 기본 및 보조 동기화는 binlog를 통해 달성된다는 것을 알고 있습니다. 아래와 같이:

사진 출처: https://github.com/alibaba/canal

실시간 추출 및 로그 기반 데이터 동기화 일관성binlog에는 세 가지 모드가 있습니다:

Row 모드: 각 데이터 행의 수정된 형태가 로그에 기록된 후 슬레이브 측에서 동일한 데이터가 수정됩니다.
문 모드: 데이터를 수정하는 모든 SQL 문은 마스터의 bin-log에 기록됩니다. 슬레이브가 복제되면 SQL 프로세스는 이를 원래 마스터 측에서 실행된 것과 동일한 SQL로 구문 분석하고 다시 실행합니다.
  1. 혼합 모드: MySQL은 실행된 각 특정 SQL 문을 기반으로 기록할 로그 형식을 구별합니다. 즉, 명령문과 행 중 하나를 선택합니다.
  2. 각각의 장점과 단점은 다음과 같습니다.

출처: http://www.jquerycn.cn/a_13625

실시간 추출 및 로그 기반 데이터 동기화 일관성Statement 모드의 단점으로 인해 DBA와의 커뮤니케이션 과정에서 실제 제작 과정에서 복제에 Row 모드가 사용된다는 사실을 알게 되었습니다. 이렇게 하면 전체 로그를 읽을 수 있습니다.

일반적으로 우리의 MySQL 레이아웃은 마스터 데이터베이스(vip) 2개 + 슬레이브 데이터베이스 1개 + 백업 재해 복구 데이터베이스 1개로 구성된 솔루션입니다. 재해 복구 데이터베이스는 일반적으로 원격 재해 복구에 사용되므로 실시간 성능이 높지 않습니다. 배치하다, 파견하다.

소스 측에 미치는 영향을 최소화하려면 당연히 슬레이브 라이브러리에서 binlog 로그를 읽어야 합니다.

binlog를 읽을 수 있는 솔루션이 많이 있으며, github에도 많이 있습니다. https://github.com/search?utf8=%E2%9C%93&q=binlog를 참조하세요. 결국 우리는 로그 추출 방법으로 Alibaba의 운하를 선택했습니다.

Canal은 Alibaba의 중국과 미국 컴퓨터실을 동기화하는 데 처음 사용되었습니다. Canal의 원리는 비교적 간단합니다.

  1. Canal은 MySQL 슬레이브의 상호 작용 프로토콜을 시뮬레이션하고 자신을 MySQL 슬레이브로 위장한 후 덤프 프로토콜을 MySQL 슬레이브로 보냅니다
  2. MySQL 마스터는 덤프 요청을 수신하고 바이너리 로그를 슬레이브(즉, 운하)로 푸시하기 시작합니다
  3. Canal은 바이너리 로그 객체(원래는 바이트 스트림)를 구문 분석합니다

실시간 추출 및 로그 기반 데이터 동기화 일관성

사진 출처: https://github.com/alibaba/canal

솔루션

MySQL 버전 Dbus의 주요 솔루션은 다음과 같습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

증분 로그의 경우 Canal Server에 가입하면 MySQL의 증분 로그를 얻을 수 있습니다.

  • Canal의 출력에 따르면 로그는 protobuf 형식입니다. 데이터를 실시간으로 정의한 UMS 형식(json 형식, 나중에 소개하겠습니다)으로 변환하는 증분 Storm 프로그램을 개발하고 kafka에 저장합니다.
  • 증분 Storm 프로그램은 버전 번호를 제어하기 위해 스키마 변경 사항을 캡처하는 역할도 담당합니다.
  • Incremental Storm 구성 정보는 고가용성 요구 사항을 충족하기 위해 Zookeeper에 저장됩니다.
  • Kafka는 출력 결과 역할과 처리 중 버퍼 및 메시지 해체 영역 역할을 합니다.

Storm을 솔루션으로 사용할 때 주로 Storm의 장점은 다음과 같습니다.

  • 기술은 상대적으로 성숙하고 안정적이며 kafka와 결합하면 표준 조합으로 간주될 수 있습니다.
  • 실시간 성능은 상대적으로 높으며 실시간 요구 사항을 충족할 수 있습니다.
  • 고가용성 요구 사항을 충족합니다.
  • Storm 동시성을 구성하면 성능 확장 기능을 활성화할 수 있습니다.
전액인출 플로우 테이블의 경우 증분 부분이면 충분하지만 초기(기존) 정보를 알아야 하는 테이블이 많습니다. 이때 초기 로드(first load)가 필요합니다.

초기 로드(첫 번째 로드)를 위해 jdbc 연결을 통해 원본 데이터베이스의 대기 데이터베이스에서 가져오는 전체 추출 Storm 프로그램도 개발했습니다. 초기 로드는 모든 데이터를 가져오는 것이므로 업무량이 적은 시간대에 수행하는 것이 좋습니다. 다행히도 한 번만 하면 되고 매일 할 필요는 없습니다.

전체 금액을 추출하려면 Sqoop의 아이디어를 활용하세요. Storm의 전체 추출은 두 부분으로 나뉩니다:

    데이터 샤딩
  1. 실제 추출
데이터 샤딩은 샤딩 열을 고려하여 구성에 따라 범위에 따라 데이터를 분할하고 자동으로 열을 선택하고 샤딩 정보를 kafka에 저장해야 합니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

다음은 구체적인 샤딩 전략입니다:

실시간 추출 및 로그 기반 데이터 동기화 일관성

전체 추출을 위한 Storm 프로그램은 Kafka의 샤딩 정보를 읽고, 풀링을 위해 여러 동시성 수준을 사용하여 대기 데이터베이스에 병렬로 연결합니다. 추출 시간이 매우 길어질 수 있기 때문입니다. 추출 프로세스 중에 실시간 상태가 Zookeeper에 기록되어 하트비트 프로그램 모니터링을 용이하게 합니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

통합 메시지 형식 증분이든 전체이든 Kafka에 대한 최종 메시지 출력은 우리가 동의한 UMS(통합 메시지 스키마) 형식이라는 통합 메시지 형식입니다.

아래 그림과 같이:

실시간 추출 및 로그 기반 데이터 동기화 일관성실시간 추출 및 로그 기반 데이터 동기화 일관성

메시지의 스키마 부분은 네임스페이스를 정의하며, 이는 유형 + 데이터 소스 이름 + 스키마 이름 + 테이블 이름 + 버전 번호 + 하위 라이브러리 번호 + 하위 테이블 번호로 구성되며 회사 전체의 모든 테이블을 설명할 수 있습니다. 네임스페이스를 통해 고유하게 찾을 수 있습니다.

  • _ums_op_는 데이터 유형이 I(삽입), U(업데이트), D(삭제)임을 나타냅니다.
  • _ums_ts_ 추가, 삭제 및 수정 이벤트의 타임스탬프입니다. 분명히 새 데이터의 타임스탬프가 업데이트됩니다.
  • _ums_id_ 메시지의 고유 ID로 메시지가 고유하다는 것을 보장하지만 여기서는 메시지 순서를 확인합니다(나중에 설명함).
  • 페이로드는 특정 데이터를 의미합니다. json 패키지에는 데이터의 페이로드를 늘리기 위해 하나 이상의 데이터가 포함될 수 있습니다.
UMS에서 지원하는 데이터 유형은 Hive 유형을 의미하며 단순화되어 기본적으로 모든 데이터 유형을 포함합니다.

전체 볼륨과 증분 볼륨의 일관성

전체 데이터 전송에서 로그 메시지의 순서를 최대한 보장하기 위해 Kafka는 파티션 방식을 사용합니다. 일반적으로 기본적으로 순차적이고 고유합니다. 하지만 Kafka 작성은 실패하고 다시 작성될 수 있다는 점을 알고 있습니다. Storm도 다시 실행 메커니즘을 사용하므로 엄격히 한 번과 전체 시퀀스를 보장하지는 않지만 적어도 한 번은 보장합니다.

그래서 _ums_id_가 특히 중요해집니다.

전체 추출의 경우 _ums_id_는 고유합니다. zk의 각 동시성 수준에서 서로 다른 ID 슬라이스를 가져오므로 고유성과 성능이 증분 데이터와 충돌하지 않고 증분 데이터보다 이전인지도 확인됩니다. 뉴스의 양.

증분 추출의 경우 MySQL의 로그 파일 번호 + 로그 오프셋을 고유 ID로 사용합니다. Id는 64비트의 긴 정수로 사용되며, 상위 7비트는 로그 파일 번호로, 하위 12비트는 로그 오프셋으로 사용된다.

예: 000103000012345678. 103은 로그 파일 번호이고 12345678은 로그 오프셋입니다.

이렇게 하면 로그 수준에서 물리적 고유성이 보장되고(다시 작성해도 ID 번호는 변경되지 않음) 순서도 보장됩니다(로그 위치도 찾을 수 있음). _ums_id_ 소비 로그를 비교하면 _ums_id_를 비교하여 어떤 메시지가 업데이트되는지 알 수 있습니다.

실제로 _ums_ts_와 _ums_id_의 의도는 비슷하지만 가끔 _ums_ts_가 반복될 수 있다는 점, 즉 1밀리초 안에 여러 작업이 발생할 수 있으므로 _ums_id_를 비교해야 합니다.

심장박동 모니터링 및 조기 경고

전체 시스템에는 데이터베이스, Canal Server, 다중 동시성 Storm 프로세스 및 기타 측면의 기본 및 백업 동기화가 포함됩니다. 따라서 프로세스를 모니터링하고 조기 경고하는 것이 특히 중요합니다.

예를 들어 하트비트 모듈을 통해 추출된 각 테이블에 멘탈리티 데이터 조각을 매분마다 삽입하고(구성 가능) 전송 시간을 저장합니다. 이 하트비트 테이블도 추출되어 전체 프로세스를 따르는데 이는 실제로 동기화된 테이블과 동일합니다. 표의 논리(여러 개의 동시 Storm이 서로 다른 분기를 가질 수 있으므로), 하트비트 패킷이 수신되면 추가, 삭제 또는 수정된 데이터가 없더라도 전체 링크가 열려 있음을 증명할 수 있습니다.

Storm 프로그램과 heartbeat 프로그램은 공개된 통계 주제로 데이터를 보내고, 통계 프로그램은 이를 influxdb에 저장하여 표시하면 다음과 같은 효과를 볼 수 있습니다.

사진은 특정 업무 시스템의 실시간 모니터링 정보를 보여줍니다. 위는 실시간 교통상황이고, 아래는 실시간 지연상황입니다. 실시간 성능은 여전히 ​​매우 좋은 것을 볼 수 있는데, 기본적으로 1~2초 안에 데이터가 단말 Kafka로 전송됐다.

실시간 추출 및 로그 기반 데이터 동기화 일관성Granfana는 실시간 모니터링 기능을 제공합니다.

지연되는 경우 dbus의 하트비트 모듈을 통해 이메일 알람 또는 SMS 알람이 전송됩니다.

실시간 둔감화

데이터 보안을 고려하여 Dbus의 전체 폭풍 및 증분 폭풍 프로그램은 둔감화가 필요한 시나리오에 대한 실시간 둔감화 기능도 완료합니다. 둔감화에는 3가지 방법이 있습니다:

요약하자면, Dbus는 다양한 소스에서 실시간으로 데이터를 내보내고 UMS 형식으로 구독을 제공하여 실시간 둔감화, 실제 모니터링 및 경보를 지원합니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

4. 웜홀 솔루션
Dbus에 대해 이야기한 후 Wormhole에 대해 이야기할 차례입니다. 왜 두 프로젝트는 하나가 아닌 Kafka를 통해 연결되어 있나요?

가장 큰 이유 중 하나는 Kafka가 자연스러운 분리 기능을 갖고 있으며, 프로그램이 Kafka를 통해 비동기 메시지 전달을 직접 수행할 수 있기 때문입니다. Dbus와 Wornhole은 메시지 전달 및 분리를 위해 내부적으로 kafka를 사용합니다.

또 다른 이유는 UMS가 자기 설명적이라는 점입니다. kafka를 구독하면 능력 있는 사용자라면 누구나 직접 UMS를 소비하여 사용할 수 있습니다.

UMS의 결과를 직접 구독할 수는 있지만 여전히 개발 작업이 필요합니다. Wormhole이 해결하는 것은 Kafka의 데이터를 다양한 시스템에 구현할 수 있는 원클릭 구성을 제공하여 개발 능력이 없는 데이터 사용자가 Wormhole을 통해 데이터를 사용할 수 있도록 하는 것입니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

그림에서 볼 수 있듯이 Wormhole은 kafka의 UMS를 다양한 시스템에 구현할 수 있으며, 현재 가장 일반적으로 사용되는 것은 HDFS, JDBC 데이터베이스 및 HBase입니다.

기술 스택 측면에서 웜홀은 스파크 스트리밍을 사용하기로 선택합니다.

웜홀에서 흐름은 소스에서 타겟까지의 나마스페이스를 의미합니다. 하나의 스파크 스트리밍은 여러 흐름을 제공합니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

Spark를 선택해야 하는 이유는 다음과 같습니다.

  • Spark는 다양한 이기종 스토리지 시스템을 자연스럽게 지원합니다.
  • Spark Stream은 Storm보다 대기 시간이 약간 낮지만 Spark는 더 나은 처리량과 더 나은 컴퓨팅 성능을 제공합니다.
  • Spark는 병렬 컴퓨팅을 지원하는 데 더 큰 유연성을 제공합니다.
  • Spark는 기술 스택 내에서 Sparking Job, Spark Streaming 및 Spark SQL을 해결하여 향후 개발을 촉진하는 통합 기능을 제공합니다.
  • Swifts의 기능은 다음과 같습니다.

Swifts의 핵심은 Kafka에서 UMS 데이터를 읽고, 실시간 계산을 수행하고, 그 결과를 Kafka의 다른 주제에 쓰는 것입니다.
    실시간 계산은 필터, 프로젝션(프로젝션), 조회, 스트리밍 조인 창 집계 등 다양한 방법으로 수행할 수 있으며 이를 통해 비즈니스 가치가 있는 다양한 스트리밍 실시간 계산을 완료할 수 있습니다.
  • 웜홀과 스위프트의 비교는 다음과 같습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성HDFS 삭제

Wormhole Wpark 스트리밍 프로그램을 통해 kafka의 UMS를 사용하려면 먼저 UMS 로그를 HDFS에 저장할 수 있습니다. Kafka는 일반적으로 며칠의 정보만 저장하고 모든 정보를 저장하지는 않지만 HDFS는 모든 기록 추가, 삭제 및 수정 사항을 저장할 수 있습니다. 이를 통해 많은 일이 가능해집니다:

HDFS에서 로그를 재생하여 언제든지 기록 스냅샷을 복원할 수 있습니다.
    쉬운 분석을 위해 zip 목록을 만들어 각 기록의 기록 정보를 복원할 수 있습니다.
  • 프로그램에 오류가 발생하면 백필을 사용하여 메시지를 다시 소비하고 새 스냅샷을 다시 구성할 수 있습니다.
  • HDFS의 로그인은 많은 것의 기초라고 할 수 있습니다.
Spark는 기본적으로 Parquet을 매우 잘 지원하므로 Spark SQL은 Parquet에 대한 좋은 쿼리를 제공할 수 있습니다. UMS가 HDFS에 구현되면 Parquet 파일에 저장됩니다. Parquet의 내용은 _ums_id_, _ums_ts_뿐만 아니라 모든 로그의 추가, 삭제, 수정 정보입니다.

웜홀 스파크 스트리밍은 네임스페이스에 따라 데이터를 서로 다른 디렉터리에 배포하고 저장합니다. 즉, 서로 다른 테이블과 버전이 서로 다른 디렉터리에 배치됩니다.

매번 작성되는 Parquet 파일은 작은 파일이기 때문에 HDFS가 작은 파일에는 성능이 좋지 않다는 사실은 모두가 알고 있으므로 매일 정기적으로 이러한 Parquet 파일을 큰 파일로 병합하는 또 다른 작업이 있습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성각 Parquet 파일 디렉터리에는 파일 데이터의 시작 시간과 종료 시간이 함께 제공됩니다. 이러한 방식으로 데이터를 다시 채울 때 모든 데이터를 읽지 않고도 선택한 시간 범위를 기준으로 읽어야 할 Parquet 파일을 결정할 수 있습니다.

데이터 삽입 또는 업데이트의 멱등성

데이터를 처리하여 데이터베이스나 HBase에 넣어야 하는 경우가 종종 있습니다. 여기서 궁금한 점은 어떤 종류의 데이터를 업데이트할 수 있느냐는 것입니다. 여기서 가장 중요한 원칙은 데이터의 멱등성입니다.

데이터를 추가, 삭제 또는 수정할 때 직면하는 문제는 다음과 같습니다.

  1. 어떤 행을 업데이트해야 합니까?
  2. 업데이트된 전략은 무엇인가요?
첫 번째 질문의 경우 실제로 데이터를 찾으려면 고유 키를 찾아야 합니다.

    비즈니스 라이브러리의 기본 키를 사용하세요.
  1. 비즈니스 당사자는 여러 열을 공동 고유 인덱스로 지정합니다.
두 번째 질문의 경우 _ums_id_가 포함됩니다. _ums_id_의 큰 값이 업데이트되었음을 ​​확인했기 때문에 해당 데이터 행을 찾은 후 이 원칙에 따라 교체하고 업데이트하겠습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

소프트 삭제하고 _is_active_ 열을 추가해야 하는 이유는 다음과 같습니다.

삽입된 _ums_id_가 상대적으로 크면 삭제된 데이터입니다(데이터가 삭제되었음을 나타냄). 이때 소프트 삭제가 아닌 경우 작은 _ums_id_ 데이터(기존 데이터)를 삽입하면 실제로 삽입됩니다. .

이로 인해 오래된 데이터가 삽입됩니다. 더 이상 멱등성이 없습니다. 따라서 삭제된 데이터가 여전히 유지(소프트 삭제)되는 것이 중요하며, 데이터의 멱등성을 보장하는 데 사용할 수 있습니다.

HBase 절약 Hbase에 데이터를 삽입하는 것은 매우 간단합니다. 차이점은 HBase가 여러 버전의 데이터를 유지할 수 있다는 것입니다(물론 하나의 버전만 유지할 수도 있음). 기본값은 3개 버전을 유지하는 것입니다.

따라서 HBase에 데이터를 삽입할 때 해결해야 할 문제는 다음과 같습니다.

적절한 rowkey 선택: Rowkey의 디자인은 선택 사항입니다. 사용자는 소스 테이블의 기본 키를 선택하거나 여러 열을 공동 기본 키로 선택할 수 있습니다.
  1. 적절한 버전을 선택하세요. 행 버전으로 더 큰 오프셋(예: 100억)을 _ums_id_+ 사용하세요.
버전 선택은 매우 흥미롭습니다. _ums_id_의 고유성과 자동 증가를 활용하고 버전 자체의 비교 관계와 일치합니다. 즉, 더 큰 버전은 더 큰 _ums_id_와 동일하며 해당 버전은 다음과 같습니다. 최신.

성능 향상의 관점에서 전체 Spark Streaming Dataset 컬렉션을 비교 없이 HBase에 직접 삽입할 수 있습니다. 버전에 따라 HBase가 보관할 수 있는 데이터와 보관할 필요가 없는 데이터를 자동으로 결정하도록 하세요.

Jdbc에 데이터 삽입:

데이터를 데이터베이스에 삽입합니다. 멱등성을 보장하는 원리는 간단하지만 성능을 향상시키려면 구현이 훨씬 더 복잡해집니다. 하나씩 비교한 다음 삽입하거나 업데이트할 수는 없습니다.

Spark의 RDD/데이터세트는 성능 향상을 위해 수집 방식으로 운영된다는 것을 알고 있습니다. 마찬가지로 컬렉션 운영 방식에서도 멱등성을 달성해야 합니다.

구체적인 아이디어는 다음과 같습니다.

먼저, 세트의 기본 키를 기반으로 대상 데이터베이스를 쿼리하여 기존 데이터 세트를 얻습니다.
  1. 데이터세트의 컬렉션과 비교하면 두 가지 범주로 나뉩니다.
  2. A: 존재하지 않는 데이터, 즉 데이터의 이 부분만 삽입하면 됩니다.
B: 기존 데이터를 _ums_id_와 비교하고 마지막으로 _ums_id_의 더 큰 행만 대상 데이터베이스에 업데이트하고 더 작은 행은 직접 삭제합니다.

Spark를 사용하는 학생들은 RDD/데이터세트를 분할할 수 있고, 여러 작업자를 사용하고 운영하여 효율성을 높일 수 있다는 것을 알고 있습니다.

동시성을 고려할 때 삽입과 업데이트가 모두 실패할 수 있으므로 실패 후 고려해야 할 전략도 있습니다.

예: 다른 작업자가 이미 삽입했고 고유 제약 조건으로 인해 삽입이 실패했기 때문에 대신 업데이트하고 _ums_id_를 비교하여 업데이트할 수 있는지 확인해야 합니다.

삽입이 불가능한 기타 상황(예: 대상 시스템 문제)의 경우 Wormhole에는 재시도 메커니즘도 있습니다. 세부 사항이 너무 많습니다. 여기에는 소개가 별로 없습니다.

일부는 아직 개발 중입니다.

다른 저장소에 삽입하는 것에 대해서는 자세히 설명하지 않겠습니다. 일반적인 원칙은 각 저장소의 특성에 따라 컬렉션 기반 동시 데이터 삽입 구현을 설계하는 것입니다. 이는 성능을 위한 Wormhole의 노력이며 Wormhole을 사용하는 사용자는 이에 대해 걱정할 필요가 없습니다.

5. 적용사례
실시간 마케팅

그렇게 말했지만 DWS의 실제 응용 프로그램은 무엇입니까? 다음으로 DWS를 이용하여 특정 시스템으로 구현되는 실시간 마케팅을 소개하겠습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

위 그림과 같이:

시스템 A의 데이터는 자체 데이터베이스에 저장되며 CreditEase는 대출을 포함한 다양한 금융 서비스를 제공하며 대출 과정에서 매우 중요한 것은 신용 검토입니다.

차용자는 가장 강력한 신용 데이터를 보유한 데이터인 중앙은행 신용 보고서 등 자신의 신용도를 입증하는 정보를 제공해야 합니다. 은행 거래나 온라인 쇼핑 거래도 신용 속성이 강한 데이터이다.

대출자가 웹이나 모바일 앱을 통해 시스템 A에 신용 정보를 입력할 때 어떤 이유로 인해 계속 진행하지 못할 수도 있습니다. 비록 이 대출자가 우량 잠재 고객일지라도 과거에는 이 정보를 사용할 수 없었습니다. 또는 오랫동안만 알 수 있었던 고객은 길을 잃습니다.

DWS 적용 후, 차용자가 작성하는 정보는 데이터베이스에 기록되며, DWS를 통해 실시간으로 대상 데이터베이스에 추출, 계산 및 구현됩니다. 고객 평점을 바탕으로 우수 고객을 평가합니다. 그런 다음 고객 정보를 즉시 고객 서비스 시스템에 출력합니다.

고객지원 담당자가 아주 짧은 시간(몇분 이내)에 전화로 차용자(잠재고객)에게 연락하여 고객관리를 진행하고 잠재고객을 실제 고객으로 전환시켰습니다. 우리는 대출이 시간에 민감하고 너무 오래 걸리면 아무 가치도 없다는 것을 알고 있습니다.

실시간으로 추출/계산/드롭하는 기능이 없었다면 이 모든 것은 불가능했을 것입니다.

실시간 신고 시스템

또 다른 실시간 신고 신청은 다음과 같습니다.

실시간 추출 및 로그 기반 데이터 동기화 일관성

저희 데이터 사용자의 데이터는 여러 시스템에서 나옵니다. 과거에는 T+1을 사용하여 보고서 정보를 얻은 후 다음날 작업을 안내했기 때문에 적시성이 떨어졌습니다.

DWS를 통해 여러 시스템에서 실시간으로 데이터를 추출하여 계산, 구현하고 보고서를 제공함으로써 운영이 적시에 배포 및 조정하고 신속하게 대응할 수 있도록 합니다.

6. 요약

너무 많이 말씀드렸으니 대략적으로 요약해 보겠습니다.

  • DWS 기술은 고가용성, 대규모 처리량, 강력한 수평 확장, 낮은 대기 시간 및 높은 내결함성을 갖춘 주류 실시간 스트리밍 빅 데이터 기술 프레임워크를 기반으로 하며 궁극적으로 일관성을 갖습니다.
  • DWS 기능은 이기종 다중 소스 및 다중 대상 시스템, 다중 데이터 형식(정형, 반정형 및 비정형 데이터) 및 실시간 기술 기능을 지원합니다.
  • DWS는 세 개의 하위 프로젝트를 결합하여 하나의 플랫폼으로 출시하여 다양한 실시간 시나리오 애플리케이션을 구동할 수 있는 실시간 기능을 제공합니다.

적합한 시나리오는 다음과 같습니다. 실시간 동기화/실시간 계산/실시간 모니터링/실시간 보고/실시간 분석/실시간 통찰력/실시간 관리/실시간 운영/실시간 의사결정

들어주신 모든 분들께 감사드리며 이번 공유는 여기서 마치겠습니다.

Q&A

Q1: Oracle 로그 리더용 오픈 소스 솔루션이 있습니까?

A1: Oracle GoldenGate(원래 Goldengate), Oracle Xstream, IBM InfoSphere Change Data Capture(원래 DataMirror), Dell SharePlex(원래 Quest), 국내 DSG superSync Wait 등 Oracle 업계를 위한 많은 상용 솔루션도 있습니다. , 사용하기 쉬운 오픈 소스 솔루션은 거의 없습니다.

Q2: 이 프로젝트에 얼마나 많은 인력과 물적 자원이 투자되었나요? 조금 복잡한 느낌이 듭니다.

Q2: DWS는 3개의 하위 프로젝트로 구성되어 있으며, 프로젝트당 평균 5~7명이 참여합니다. 조금 복잡하지만 실제로는 우리 회사가 직면하고 있는 어려움을 빅데이터 기술을 활용하여 해결하려는 시도입니다.

빅데이터 관련 기술을 연구하고 있어서 팀원 모두가 무척 기뻐하고 있어요 :)

사실 Dbus와 Wormhole은 상대적으로 고정된 패턴이고 재사용이 쉽습니다. Swift의 실시간 컴퓨팅은 각 비즈니스와 관련이 있고 강력한 사용자 정의 기능이 있으며 상대적으로 번거롭습니다.

Q3: CreditEase의 DWS 시스템은 오픈 소스인가요?

A3: Yixin의 다른 오픈 소스 프로젝트와 마찬가지로 이 프로젝트도 이제 막 구체화되었으며 향후 어느 시점에는 추가 개발이 필요하다고 생각합니다.

Q4: 건축가를 어떻게 이해하나요? 그는 시스템 엔지니어인가요?

A4: CreditEase에는 여러 명의 설계자가 있습니다. 그들은 기술로 비즈니스를 추진하는 기술 관리자로 간주되어야 합니다. 제품 디자인, 기술 관리 등을 포함합니다.

Q5: 복제 방식이 OGG인가요?

A5: OGG 및 위에 언급된 기타 상용 솔루션은 옵션입니다.

기사 출처: DBAplus 커뮤니티(dbaplus)

위 내용은 실시간 추출 및 로그 기반 데이터 동기화 일관성의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 linuxprobe.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제