MySQL 作为当前应用最广泛的开源关系型数据库之一,具有高性能、稳定性和易用性等特性,是许多网站、应用和商业产品的主要数据存储。在一些场景中,如果出现单表行数上亿的情况,就可能需要开发和 DBA 对大表进行优化:分表、归档或扩容操作,而在这些操作中都涉及了对数据的迁移。所以,提供高效、准确、稳定的大表迁移能力是非常有必要的。
1. 传统的迁移方案
目前,数据迁移主要分为逻辑迁移和物理迁移,逻辑迁移主要有 mysqldump、mysqlpump 和 load data,物理迁移主要有 XtraBackup。对于这类导入导出和拷贝文件的传统迁移方案,在大表迁移中会存在一些问题:
-
需要停机,对于物理迁移,不能保障在线业务。
-
性能差,对于逻辑迁移,单线程导出表。
-
可靠性差,导出异常后,不支持断点,需要重新导出。
-
运维性差,迁移期间,不能对导入导出进行暂停、限流等操作。
2. 领先的迁移方案
NineData 提供的数据复制同时包含了数据迁移和数据同步的能力,在不影响业务的前提下,提供了高效、稳定、可运维的大表迁移能力。对大表(单表 227G,行数 10 亿)迁移:NineData 约 30 分钟完成迁移,平均速率 124.2 MB/s,平均 534188 RPS。
通过对 MySQL 大表迁移的性能测试,和传统迁移比,NineData 数据迁移的优势有:
-
简单易用:一分钟即可完成任务配置,并全自动化完成任务迁移。
-
强劲性能:完善的智能分片、行级并发、动态攒批等核心技术,有效保证迁移性能。
-
高可靠:结合新型断点、异常诊断及丰富的修复手段,对于迁移过程中可能出现软硬件故障,提供完善的容灾能力,大大提高了大表迁移的成功率。
通过上述优势,保证了 NineData 在大表迁移场景下的领先性。另外,NineData 还提供了对比功能,包含数据和结构的对比,以及全量、快速和不一致复检的对比方式,并且也支持不同的对比频率。在迁移或复制结束后,通过数据和结构对比,能有效的保障数据的一致性。
NineData 在提供强大迁移能力的同时,也保证了使用的简单性,只需要 1 分钟就能完成迁移任务的配置,实现完全自动化的数据迁移过程。下面我们来看下整个任务的配置过程:
迁移链路的配置
-
配置任务名称,选择要迁移的源和目标实例。
-
选择复制类型,数据迁移选择结构和全量复制(数据迁移)。
-
根据需要,选择合适的冲突处理策略。
-
点击下一步,进行迁移对象的选择。
选择迁移对象
选择迁移对象:针对不同粒度选择迁移对象:实例、库、表、视图等。
配置映射和过滤规则:目标实例可以自定义迁移的库名、表名和按照过滤条件进行部分数据迁移,也可以针对表的列名进行映射和部分列迁移。
预检查
通过丰富的检查项,保证了迁移任务的稳定性及和数据的一致性。到此,我们就完成了一个高性能迁移任务的配置。
同时,为了提供更好的迁移体验,NineData 针对迁移过程提供了完善的观测、干预能力。其不但提供对象迁移的详细状态、进展、详情,还通过监控和日志透露后台线程的内部执行情况,帮助用户全方位追踪迁移进展。同时,还针对运行过程中可能出现的异常情况,提供基础诊断能力,及修复、跳过、移除等多种修复策略和迁移限流能力,让用户能够自主快速得诊断并修复链路,保障迁移稳定性。
3. 总结
NineData 提供的高效、快速、稳定的 MySQL 大表迁移能力,很好的补充了传统迁移方案的不足。当前,NineData 已经支持数十种常见数据库的迁移复制,同时,除了 SAAS 模式外,还提供了企业专属集群模式,满足企业最高的数据安全合规要求。目前,NineData 已在运营商、金融、制造业、地产、电商等多个行业完成大规模应用实践。如果您感兴趣的话,可以登录官网 https://www.ninedata.cloud/dbmigration,立即开始免费使用。