大数跨境
0
0

亚马逊云科技架构师亲授:基于 SeaTunnel 迁移数据到 Amazon Aurora DSQL

亚马逊云科技架构师亲授:基于 SeaTunnel 迁移数据到 Amazon Aurora DSQL 白鲸开源
2025-12-02
3
导读:本文作者开发了一种专门针对于Aurora DSQL的Sink Connector,以满足对于Aurora DSQL数据同步需求。

点击蓝字



关注我们

Amazon Aurora DSQL是亚马逊云科技于2024年12月推出的分布式SQL数据库,专为构建扩展性无限、高可用且免基础设施管理的应用程序设计,具有可用性高、无服务器模式架构、兼容性强、容错能力和安全级别高等特点。

由于Aurora DSQL的认证机制与IAM集成, 访问Aurora DSQL数据库需要通过IAM的身份来生成token 进行访问,而token 默认只有15分钟有效期,因此目前一些主流的数据同步工具暂不支持将其他数据库的数据迁移到Aurora DSQL。

基于这种情况,本文作者基于数据同步工具Apache SeaTunnel开发了一个专门针对Aurora DSQL的sink Connector,以满足从其他数据库迁移数据到Aurora DSQL需求。

SeaTunnel介绍


SeaTunnel是一个非常易用、多模态、超高性能的分布式数据集成平台,专注于数据集成和数据同步,主要旨在解决数据集成领域的常见问题。

SeaTunnel 相关特性

  • 丰富且可扩展的Connector: 目前,SeaTunnel 支持超过 190 个Connector且数量还在增加,像主流数据库MySQL 、Oracle、SQLServer、PostgreSQL等都已经提供了Connector支持。插件式设计让用户可以轻松开发自己的Connector并将其集成到SeaTunnel项目中。
  • 批流集成:基于SeaTunnel Connector API开发的Connector完美兼容离线同步、实时同步、全量同步、增量同步等场景。 它们大大降低了管理数据集成任务的难度。
  • 分布式快照:支持分布式快照算法,保证数据一致性。
  • 多引擎支持:SeaTunnel默认使用SeaTunnel引擎(Zeta)进行数据同步。 SeaTunnel还支持使用Flink或Spark作为Connector的执行引擎,以适应企业现有的技术组件。 SeaTunnel 支持 Spark 和 Flink 的多个版本。
  • JDBC复用、数据库日志多表解析:SeaTunnel支持多表或全库同步,解决了过度JDBC连接的问题; 支持多表或全库日志读取解析,解决了CDC多表同步场景下需要处理日志重复读取解析的问题。
  • 高吞吐量、低延迟:SeaTunnel支持并行读写,提供稳定可靠、高吞吐量、低延迟的数据同步能力。
  • 完善的实时监控:SeaTunnel支持数据同步过程中每一步的详细监控信息,让用户轻松了解同步任务读写的数据数量、数据大小、QPS等信息。

SeaTunnel 工作流程


图一 SeaTunnel工作流图

SeaTunnel的工作流程如上图所示,用户配置作业信息并选择提交作业的执行引擎。Source Connector负责并行读取源端数据并将数据发送到下游Transform或直接发送到Sink,Sink将数据写入目的地。


从源码构建 SeaTunnel


git clone https://github.com/apache/seatunnel.gitcd seatunnelsh ./mvnw clean install -DskipTests -Dskip.spotless=truecp seatunnel-dist/target/apache-seatunnel-${version}-bin.tar.gz /The-Path-You-Want-To-Copycd /The-Path-You-Want-To-Copytar -xzvf "apache-seatunnel-${version}-bin.tar.gz"

从源码构建成功后,所有的Connector插件和一些必要的依赖(例如:mysql驱动)都包含在二进制包中。您可以直接使用Connector插件,而无需单独安装它们。

使用SeaTunnel同步MySQL

数据到Aurora DSQL 配置示例


env {  parallelism = 1  job.mode = "STREAMING"  checkpoint.interval = 6000  checkpoint.timeout = 1200000}source {  MySQL-CDC {    username = "user name"    password = "password"    table-names = ["db.table1"]    url = "jdbc:mysql://dbhost:3306/db?useSSL=false&allowPublicKeyRetrieval=true&serverTimezone=UTC&connectTimeout=120000&socketTimeout=120000&autoReconnect=true&failOverReadOnly=false&maxReconnects=10"    table-names-config = [      {        table = "db.table1"        primaryKeys = ["id"]      }    ]  }}transform {}sink {    Jdbc {        url="jdbc:postgresql://<dsql_endpoint>:5432/postgres"        dialect="dsql"        driver = "org.postgresql.Driver"        username = "admin"        access_key_id = "ACCESSKEYIDEXAMPLE"        secret_access_key = "SECRETACCESSKEYEXAMPLE"        region = "us-east-1"        database = "postgres"        generate_sink_sql = true        primary_keys = ["id"]        max_retries="3"        batch_size =1000    }}


运行数据同步任务



将上面的配置保存为mysql-to-dsql.conf 文件(请注意需要将示例中的值替换为真实的参数),存放在apache-seatunnel-${version} 的config 目录下,执行以下命令:

cd "apache-seatunnel-${version}"./bin/seatunnel.sh --config ./config/mysql-to-dsql.conf -m local


图二 数据同步日志信息

命令执行成功后,您可以通过新产生的日志观察任务执行情况,如果出现错误,也可以根据异常信息进行定位,比如数据库连接超时、表不存在情况。而正常情况下,数据会成功写入目标 Aurora DSQL,如上图所示。


总结


Aurora DSQL是一款高度安全、易扩展、无服务器基础设施的分布式数据库,它的认证方式与IAM身份结合,因此目前缺少合适的工具可以将数据同步到Aurora DSQL中,尤其是在实时数据同步方面。SeaTunnel 是一款非常优秀数据集成和数据同步工具,目前支持多种数据源的数据同步,并且基于SeaTunnel 也可以非常灵活地实现自定义的数据同步需求,比如全量同步/增量实时同步。基于这种灵活性,本文作者开发了一种专门针对于Aurora DSQL 的Sink Connector, 以满足对于Aurora DSQL 数据同步需求。

参考文档

  • SeaTunnel 部署:https://seatunnel.apache.org/zh-CN/docs/start-v2/locally/deployment

  • 开发新的SeaTunnel Connector:

  • https://github.com/apache/seatunnel/blob/dev/seatunnel-connectors-v2/README.zh.md

  • 在Aurora DSQL 中生成身份验证令牌:https://docs.aws.amazon.com/aurora-dsql/latest/userguide/SECTION_authentication-token.html

*前述特定亚马逊云科技生成式人工智能相关的服务目前在亚马逊云科技海外区域可用。亚马逊云科技中国区域相关云服务由西云数据和光环新网运营,具体信息以中国区域官网为准。

本篇作者


谭志强

亚马逊云科技迁移解决方案架构师,主要负责企业级客户的上云或跨云迁移工作,具有十几年 IT 专业服务经验,历任程序设计师、项目经理、技术顾问、解决方案架构师。


·END·





白鲸开源



白鲸开源是一家开源原生的DataOps商业公司,是国家高新技术企业,由多个Apache Foundation Member成立,80%员工都是 Apache Committer,运营2个全球Apache开源项目(DolphinScheduler, SeaTunnel)。白鲸开源已根据全球最佳实践发布商业版产品WhaleStudio(含白鲸数据调度平台WhaleScheduler和白鲸数据集成平台WhaleTunnel)。我们致力于打造下一代开源原生的DataOps 平台,助力企业在大数据和云时代,智能化地完成多数据源、多云及信创环境的数据集成、调度开发和治理,以提高企业解决数据问题的效率,提升企业分析洞察能力和决策能力。



了解更多




公司网站:www.whaleops.com
联系邮箱: xiyan@whaleops.com

如果您希望深入了解文中提到的数据质量功能,或者讨论如何将 WhaleStudio 与你的业务流程相结合,我们非常愿意为你提供帮助。欢迎扫码获取WhaleStudio产品白皮书



下滑探索更多WhaleStudio的优势,让我们帮助你构建一个高效、安全的大数据解决方案。🚀

金融行业的应用实例

↓↓↓点击下面链接阅读↓↓↓

国内某头部理财服务提供商基于白鲸调度系统建立统一调度和监控运维

白鲸调度系统助力国内头部券商打造国产信创化 DataOps 平台

白鲸开源 DataOps 平台助力证券行业实现信创数字化转型

最佳实践 | 从Airflow迁移到Apache DolphinScheduler

Apache DolphinScheduler VS WhaleScheduler

代立冬:基于Apache Doris+WhaleTunnel 实现多源实时数据仓库解决方案探索实践

白鲸开源在中信建投 DataOps 应用实践

商业版技术解析实例

点击下面链接阅读↓↓↓

被热议的“DataOps”是炒作?

WhaleScheduler:高并发下的稳定性与性能实践

驾驭数据的未来:WhaleStudio与DataOps的完美结合

WhaleStudio:创新性解决大数据挑战的工具

支持全生态调度:构建企业数字化转型的桥梁


运营开源项目


目前,北京白鲸开源科技有限公司运营着已经从 Apache 基金会毕业的大数据工作流调度平台 Apache DolphinScheduler,以及数据集成平台 Apache SeaTunnel,诚邀全球伙伴加入开源共建!

Apache DolphinScheduler:
仓库地址:https://github.com/apache/dolphinscheduler
官网:https://dolphinscheduler.apache.org/

Apache SeaTunnel:
仓库:https://github.com/apache/seatunnel
官网:https://seatunnel.apache.org/

点个在看你最好看




【声明】内容源于网络
0
0
白鲸开源
白鲸开源是一家开源原生的DataOps公司,主要运营2个Apache顶级开源项目(DolphinScheduler和SeaTunnel),提供相应的商业版本解决企业多数据源、多云及信创环境的数据集成、调度开发和生产运维等问题。
内容 298
粉丝 0
白鲸开源 白鲸开源是一家开源原生的DataOps公司,主要运营2个Apache顶级开源项目(DolphinScheduler和SeaTunnel),提供相应的商业版本解决企业多数据源、多云及信创环境的数据集成、调度开发和生产运维等问题。
总阅读22
粉丝0
内容298