腾讯云 数据传输服务(Data Transmission Service,DTS)是提供数据迁移、数据同步、数据订阅于一体的数据库数据传输服务,可帮助用户在业务不停服的前提下轻松完成数据库迁移上云,利用实时同步通道轻松构建高可用的数据库容灾架构,通过数据订阅来满足商业数据挖掘、业务异步解耦等场景需求。
DTS for Redis 目前支持数据迁移功能,可一次性将数据迁移到云上数据库,迁移过程中不停机,并且支持全量 + 增量数据的迁移,即迁移前源库的历史数据,和迁移过程中源库新增的写入数据都支持一起迁移。
DTS 支持 Redis 数据迁移的源端和目标端部署形态如下:
源端 | 目标端 | 说明 |
---|---|---|
自建数据库 Redis(IDC 自建、腾讯云 CVM 上自建) | 腾讯云 Redis | - |
第三方云厂商 Redis | 腾讯云 Redis | 前提条件是云厂商需要提供 SYNC 或者 PSYNC 命令权限 |
腾讯云 Redis | 腾讯云 Redis | 支持相同腾讯云账号下数据库实例之间的数据迁移,如版本升级、跨地域迁移等。 |
说明:单机版迁移内存版(集群架构)兼容性问题请参见 单机版迁移集群版说明。
DTS 迁移服务支持常见的网络迁移,包括公网、CVM 自建、专线接入、VPN 接入、云联网场景下的数据迁移。
说明:DTS 系统会在启动迁移任务前进行如下校验,不符合要求的系统会报错提示,用户也可提前进行自查,报错后的处理方法请参考 Redis 校验项。
类型 | 环境要求 |
---|---|
源库要求 |
|
目标库要求 |
|
如下检查需要用户在迁移前自行排查,否则可能会出现迁移失败。
迁移之前,请检查源端数据库中是否存在大 Key。在迁移过程中,大 Key 可能引起缓冲区 client-output-buffer-limit 溢出,导致迁移失败。
评估大 Key 进行拆分或清理,如果保留大 Key,请设置源端缓冲区的大小 client-output-buffer-limit 为无限大。
config set client-output-buffer-limit 'slave 0 0 0'
如果业务并发请求比较大,迁移之前,请检查 Linux 内核对连接数的限制,如果业务请求连接数超出内核限制的连接数,Linux 服务器将会主动断开与 DTS 的连接。
echo "net.ipv4.tcp_max_syn_backlog=4096" >> /etc/sysctl.conf
echo "net.core.somaxconn=4096" >> /etc/sysctl.conf
echo "net.ipv4.tcp_abort_on_overflow=0" /etc/sysctl.conf
sysctl -p
迁移之前,请务必检查源端存放 RDB 文件目录的访问权限是否为可读,否则将会因 RDB 文件不可读而引起迁移失败。
如果RDB文件所在目录不可读,请在源端执行如下命令,设置“无盘复制”,直接发送 RDB 文件给 DTS 落盘,而不需要保存在源端的磁盘再发送。
config set repl-diskless-sync yes
标准架构迁移至内存版(集群架构)面临的最大问题为命令是否兼容内存版(集群架构)的使用规范。
具体操作,请参见 标准架构迁移集群架构检查 进行静态评估与动态评估。
1)登录 DTS 控制台,在数据迁移页,单击新建迁移任务。
2)在新建迁移任务页面,选择源数据库和目标数据库的类型、地域信息,然后单击立即购买。
填写源库设置和目标库设置,单击连通性测试,测试通过后,单击保存进入下一步。
设置类型 | 配置项 | 说明 |
---|---|---|
任务设置 | 任务名称 | 设置一个具有业务意义的名称,便于任务识别。 |
运行模式 | 可以设置立即执行任务或者定时执行。
| |
标签 | 标签用于从不同维度对资源分类管理。如现有标签不符合您的要求,请前往控制台管理标签。 | |
源库设置 | 源库类型 | 购买时选择的源数据库类型,不可修改。 |
所属地域 | 购买时选择的地域,不可修改。 | |
接入类型 | 对于第三方云厂商数据库,一般可以选择公网方式,也可以选择 VPN 接入,专线或者云联网的方式,需要根据实际的网络情况选择。 本场景选择“专线接入”或“VPN接入”,该场景需要 配置 VPN 和 IDC 之间的互通,其他接入类型的准备工作请参考 准备工作概述。
| |
私有网络专线网关 | 专线接入时只支持私有网络专线网关,请确认网关关联网络类型。 | |
私有网络 | 选择私有网络专线网关关联的私有网络和子网。 | |
节点类型 | 支持单节点迁移和集群版迁移。此处以“集群迁移”为例进行介绍。 目前 Redis 集群版迁移到集群版时,对分片数量和副本数量没有限制。 | |
节点信息 | 填写源库集群的所有分片节点地址和密码(IP:端口:密码 或 IP:端口),多个节点请换行处理。 强烈建议从源库的副本节点(从节点)进行数据迁移,避免影响源库的业务访问。 | |
目标库设置 | 目标库类型 | 购买时选择的目标库类型,不可修改。 |
所属地域 | 购买时选择的目标库地域,不可修改。 | |
接入类型 | 根据您的场景选择,本场景选择“云数据库”。 | |
数据库实例 | 选择目标库的实例 ID。 |
在校验任务页面,进行校验,校验任务通过后,单击启动任务。
返回数据迁移任务列表,任务进入准备运行状态,运行1分钟 - 2分钟后,数据迁移任务开始正式启动。
1)(可选)如果您需要进行查看任务、删除任务等操作,请单击对应的任务,在操作列进行操作,详情可参考 任务管理。
2)当源库和目标库的 key 同步一致时,在操作列单击完成,结束数据迁移任务。
3)当迁移任务状态变为任务成功时,请先在目标数据库上验证数据,如果验证无误,即可对业务进行正式割接,更多详情可参考 割接说明。
1)DTS 支持迁移中断自动上报事件告警,以便及时了解到迁移任务的异常,详细步骤请参考 配置数据迁移告警。
2)DTS 支持查看迁移过程中的各项指标监控, 以便了解系统的各项指标性能,请参考 查看监控指标。
本页内容是否解决了您的问题?