Rumah > Artikel > pangkalan data > Mengapa menyalin data dari MySQL ke Redshift
Banyak syarikat yang menggunakan MySQL untuk menguasakan aplikasi web mereka memilih Redshift untuk analisis data. Terdapat beberapa sebab mengapa anda perlu melakukan ini juga:
Kekalkan prestasi aplikasi. Seperti yang telah kami nyatakan, menjalankan pertanyaan analitikal pada pangkalan data MySQL pengeluaran boleh memberi kesan yang serius terhadap prestasinya. Ia juga boleh menyebabkan ia ranap. Pertanyaan analitikal sangat intensif sumber dan memerlukan kuasa pengkomputeran khusus.
Analisis semua data anda. MySQL direka bentuk dengan fokus pada data transaksi kerana ia adalah pangkalan data OLTP (pemprosesan transaksi dalam talian) dan penggunaannya termasuk rekod pelanggan dan data kewangan. Walau bagaimanapun, anda ingin mendapatkan cerapan daripada keseluruhan set data, termasuk jenis bukan transaksi. Anda boleh menggunakan Redshift untuk menangkap dan menganalisis semua data anda di satu tempat.
Analisis yang lebih pantas. Redshift ialah gudang data pemprosesan selari secara besar-besaran (MPP), yang bermaksud ia boleh memproses sejumlah besar data dalam masa yang sangat singkat. MySQL, sebaliknya, menghadapi kesukaran untuk memenuhi kuasa pengkomputeran yang diperlukan untuk pertanyaan analisis moden berskala besar. Malah pangkalan data replika MySQL berjuang untuk mencapai kelajuan yang sama seperti Redshift.
Skalabiliti. MySQL direka bentuk untuk contoh nod tunggal, bukan untuk infrastruktur awan teragih moden. Oleh itu, penskalaan melebihi satu nod adalah masa dan sumber yang intensif, memerlukan penggunaan teknik seperti tetapan sharding atau masternode. Semua ini boleh melambatkan lagi pangkalan data.
Untuk memenuhi keperluan analisis, banyak syarikat menyalin data daripada MySQL ke Redshift kerana kelemahan yang wujud dalam MySQL. Terdapat 4 cara untuk mencapai ini:
import dan eksport
pemilihan tambahan dan salinan
Gunakan Binlog Change Data Capture (CDC)
ETL
Salin ke Redshift Yang mudah caranya ialah mengeksport keseluruhan data MySQL. Walau bagaimanapun, ini juga merupakan kaedah yang paling tidak berkesan. Terdapat tiga langkah:
Eksport
Tukar
Import
Pertama, gunakan arahan mysqldump MySQL untuk mengeksport data. Perintah mysqldump biasa kelihatan seperti ini:
java:
$ mysqldump -h yourmysqlhost -u user mydatabase mytable1 mytable2 --result-file dump.sql
Output arahan ini ialah pernyataan MySQL SQL anda. Anda tidak boleh menjalankan SQL pada Redshift apa adanya—anda mesti menukar penyata kepada format yang sesuai untuk import Redshift.
Untuk prestasi muat naik yang optimum, tukar penyata SQL anda kepada format TSV (nilai dipisahkan tab). Anda boleh melakukan ini menggunakan arahan COPY Redshift.
Arahan COPY menukarkan pernyataan SQL anda kepada format TSV. Seterusnya, muat naik kumpulan fail ke Amazon S3 dalam jadual Redshift. Sebagai contoh, satu baris data dalam pembuangan MySQL kelihatan seperti ini:
java:
mysql> INSERT INTO `users` (`id`, `firstname`, `lastname`, `age`) VALUES (1923, ‘John’, ‘Smith’, 34),(1925,’Tommy’,’King’);
Menggunakan COPY, ia kelihatan seperti ini:
1923年 | JOHN | SMITH |
---|---|---|
1925年 | Tmmy | King |
请注意,值由制表符分隔(\t)。
您可能还必须将数据值转换为与 Redshift 兼容。这是因为 MySQL 和 Redshift 支持不同的列和数据类型。
例如,DATE 值“0000-00-00”在 MySQL 中是有效的,但在 Redshift 中会抛出错误。您必须将该值转换为可接受的 Redshift 格式,例如“0001-01-01”。
将 MySQL 语句转换后,最终步骤是将其从 S3 导入到 Redshift。为此,只需运行 COPY 命令:
java:
COPY users
FROM 's3://my_s3_bucket/unload-folder/users_' credentials
'aws_access_key_id=your_access_key;aws_secret_access_key=your_secret_key';
尽管导入和导出是复制到 Redshift 的最简单方法,但它并不适合频繁更新。
大约需要30分钟,就能够通过100 Mbps的网络从MySQL导出18GB的数据。将该数据导入 Redshift 还需要 30 分钟。这假设您在导入或导出期间遇到零连接问题,这将迫使您重新开始该过程。
将 MySQL 复制到 Redshift 的更有效方法是增量 SELECT 和 COPY。
如果导入和导出对于您的需求来说太慢,增量 SELECT 和 COPY 可能是您的答案。
SELECT 和 COPY 方法仅更新自上次更新以来已更改的记录。与导入和导出整个数据集相比,这花费的时间和带宽要少得多。SELECT 和 COPY 使您能够更频繁地同步 MySQL 和 Redshift。
要使用增量 SELECT 和 COPY,您的 MySQL 表必须满足几个条件:
表必须有一个updated_at列,每次更改行时都会更新其时间戳。
表必须有一个或多个唯一键。
和导入导出一样,这个方法也分三步:
增量 SELECT 仅导出自上次更新以来已更改的行。您在 MySQL 上运行的 SELECT 查询如下所示:
java:
SELECT * FROM users WHERE updated_at >= ‘2016-08-12 20:00:00’;
将结果保存到文件以进行转换。
此转换步骤与导入导出方法相同。将 MySQL 数据转换为 Redshift 的 TSV 格式。
您的MySQL TSV文件现在包括更新过的行和新插入的行。对于目标 Redshift 表,您必须采取其他措施而不能直接运行COPY命令。这将导致更新的行被复制。
为避免重复行,请使用 DELSERT(删除 + 插入)技术:
在 Redshift 上创建一个与目标表具有相同定义的临时表。
运行 COPY 命令将数据上传到临时表。
从目标表中删除临时表中也存在的行。它看起来像这样:
java:
DELETE FROM users USING users_staging s WHERE users.id = s.id;
id表的唯一键在哪里。
最后,将行从临时表插入到目标表:
java:
INSERT INTO users (id, firstname, lastname, updated_at) SELECT id, firstname, lastname, updated_at FROM users_staging s;
增量 SELECT 和 COPY 比导入和导出更有效,但它有其自身的局限性。
主要问题是从 MySQL 表中删除的行会无限期地保留在 Redshift 中。如果您希望在清理 MySQL 上的旧数据时保留在 Redshift 上的历史数据,那也没有问题。否则,在 Redshift 中删除的行会在数据分析过程中引起严重的头痛。
这种方法的另一个缺点是它不复制表模式更改。如果在MySQL表中添加或删除列,则需要手动更新Redshift表以进行相应更改。
最后,用于从 MySQL 表中提取更新行的查询会影响 MySQL 数据库的性能。
如果这些缺点中的任何一个是破坏者,那么下一个方法适合您。
更改数据捕获 (CDC) 是一种技术,可捕获对 MySQL 中的数据所做的更改并将其应用于目标 Redshift 表。类似增量选择和复制,它只导入已更改数据,而非整个数据库。
然而,与增量 SELECT 和 COPY 不同,CDC 允许您实现 MySQL 到 Redshift 的真正复制。
为了使用CDC方法对MySQL数据库进行操作,必须启用二进制日志(binlog)。使用Binlog,您可以以流的形式记录数据的更改,从而实现接近实时的复制。
除了能捕获数据的变化(插入、更新和删除),Binlog 还能够记录表结构的变化,例如添加或删除列。它确保 Redshift 中已经删除的行也在 MySQL 中删除。
当您将 CDC 与 binlog 结合使用时,您实际上是在编写一个应用程序,该应用程序将流数据从 MySQL 读取、转换和导入到 Redshift。
要执行此操作,您可使用开源库 mysql-replication-listener。通过使用这个 C++ 库,我们可以实时从 MySQL binlog 中读取数据,而且支持流式 API。高级 API 也可用于多种语言:kodama (Ruby) 和python-mysql-replication (Python)。
首先,设置 MySQL 配置参数以启用 binlog。以下是binlog相关参数列表:
java:
log_bin = /file_path/mysql-bin.log
Binlog_format参数的设置影响着Binlog事件以何种方式存储在Binlog文件中的格式。支持 3 种格式:语句、混合和行。
语句格式将查询按原样保存在 binlog 文件中(例如UPDATE SET firstname=’Tom’ WHERE id=293;)。尽管它减小了 binlog 文件的大小,但在用于复制时却存在潜在问题。
要复制到 Redshift,请使用行格式。
行格式将更改的值保存在 binlog 文件中。它增加了 binlog 文件大小,但可确保 MySQL 和 Amazon Redshift 之间的数据一致性。log_bin设置存储binlog文件的路径。binlog file retention period is determined by expire_logs_days.。
指定要复制的表需要在replicate-wild-do-table参数中设置。只有那些指定的表才能进入 binlog 文件。
我们建议将 binlog 文件保留几天。这可确保您有时间解决复制过程中出现的任何问题。
如果您使用 MySQL 复制从服务器作为源,则将 指定log-slave-updates为 TRUE很重要。否则,在复制主服务器上所做的数据更改将不会记录在 binlog 中。
此外,您的 MySQL 帐户需要具有以下权限才能执行复制相关任务:
复制从站
选择
重新加载
复制客户端
锁表
使用 binlog 时,实际上“export”的是 MySQL binlog 文件的实时数据流。binlog 数据的交付方式取决于您使用的 API。
例如,对于 Kodama,binlog 数据以 binlog 事件流的形式交付。
Kodama 允许您为不同的事件类型(插入、更新、删除、更改表、创建表等)注册事件处理程序。您的应用程序将接收二进制日志事件。输出将被生成,以便用于针对 Redshift 导入的数据更改或者表结构更改。
数据更改导入类似于我们其他复制方法的转换步骤。然而,与其他的不同,binlog 允许您处理已删除的事件。您需要专门处理已删除的事件以维护Redshift 上传性能。
最后,是时候导入您的 binlog 数据流了。
问题是 Redshift 没有蒸汽上传功能。使用我们在增量 SELECT 和 COPY 方法中概述的 DELSERT 导入技术。
虽然Binlog是从MySQL复制到Redshift的理想方法,但它仍存在一些不足之处。构建您的 CDC 应用程序需要认真的开发工作。
除了我们上面描述的数据流之外,您还必须构建:
交易管理。您应该跟踪数据流性能,以避免错误导致您的应用程序停止读取二进制日志数据。事务管理确保您可以从上次中断的地方继续。
数据缓冲和重试。当数据被发送时,Redshift 可能会出现不可用的情况。您的应用程序需要缓冲未发送的数据,直到 Redshift 集群重新联机。如果此步骤操作不当,可能会导致数据丢失或重复数据。
表模式更改支持。表模式更改二进制日志事件(更改/添加/删除表)作为本机 MySQL SQL 语句出现,它不会按原样在 Redshift 上运行。为了使表架构更改得到支持,你需要将 MySQL语句转换成对应的Amazon Redshift语句。
借助 ETL 工具,您可以近乎实时地将数据复制到 Redshift。
与 CDC 方法不同,此类工具可以管理整个复制过程并自动将 MySQL 数据类型映射为 Redshift 使用的格式,因此您不必这样做。您可以将多个 MySQL 数据库(以及其他类型的数据库)同时同步到 Redshift。
此外,设置过程简单而简短。
即使您将 MySQL 用作业务的基础,但它在数据分析方面的限制是公认的。Redshift 为您的 BI 需求提供了一个简单、强大的解决方案。MySQL 和 Redshift 可以将您的业务推向新的高度。
多种方法可用于从 MySQL 复制数据到 Redshift,如您所见。方法从简单到复杂,从非常缓慢到接近实时。您选择的方法取决于几个因素:
复制频率
MySQL 数据集的大小
可用的开发者资源
记住:使用变更数据捕获(CDC)是最快、最真实的复制方法,它利用 MySQL 的 binlog。缺点是需要开发人员数小时来构建和维护应用程序。
Atas ialah kandungan terperinci Mengapa menyalin data dari MySQL ke Redshift. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!