tencent cloud

TDSQL Boundless

产品动态
产品简介
产品概述
应用场景
产品架构
实例类型
兼容性说明
使用规范建议
自研内核
内核概述
内核版本更新动态
功能类特性
性能类特性
产品计费
计费概述
购买方式
价格详情
续费说明
欠费说明
退费说明
快速入门
创建实例
连接实例
用户指南
数据迁移
数据同步/订阅
实例管理
参数配置
账号管理
安全组
备份与恢复
数据库审计
标签管理
实践教程
Online DDL 的技术演进与使用实践
锁机制解析与问题排查实践
数据智能调度及相关性能优化实践
TDSQL Boundless 选型指南与实践教程
开发指南
开发指南(MySQL 兼容模式)
开发指南(HBase 兼容模式)
性能调优
性能调优概述
SQL 调优
DDL 调优
性能白皮书
性能概述
TPC-C 测试
Sysbench 测试
API 文档
History
Introduction
API Category
Making API Requests
Instance APIs
Security Group APIs
Task APIs
Backup APIs
Rollback APIs
Parameter APIs
Database APIs
Data Types
Error Codes
通用参考
系统原理
SQL 参考
数据库参数说明
TPC-H 基准测试数据模型参考
错误码信息
安全与合规
常见问题
服务协议
服务等级协议
服务条款
隐私政策
数据处理和安全协议
联系我们
词汇表

通过 DTS 订阅 TDSQL Boundless

PDF
聚焦模式
字号
最后更新时间: 2026-03-20 17:59:17
TDSQL Boundless 支持通过 数据传输服务 DTS 实时监控并捕获实例的数据变化并转换为消息对象推送到 Kafka,方便下游业务订阅、获取和消费。

注意事项

仅支持内核版本19.2.0及以上版本的数据库实例开启 Binlog 日志。
内核版本低于20.0.0的数据库实例开启 Binlog 日志后将自动禁用 CREATE TABLE ... AS SELECT ...语法,如需恢复,需联系技术支持关闭同步功能并重启实例。
内核版本低于21.0.0的数据库实例不支持生成 VIEW(视图)操作的 Binlog 日志。
暂不支持生成 FUNCTION(函数)、PROCEDURE(存储过程)、TRIGGER(触发器)操作的 Binlog 日志。

第一步:开启 TDSQL Boundless 实例的 Binlog

1. 按照 管理 Binlog 中开启 Binlog 的步骤,开启实例的 Binlog 日志。
开通成功后,您将获取 Binlog CDC 的 IP 与端口,请妥善保管,后续将用于创建数据订阅任务。
2. 创建用于数据订阅的用户,并赋予REPLICATION CLIENTREPLICATION SLAVEPROCESS 和全部对象的 SELECT权限。
2.1 登录 控制台,在实例列表中,选择已开通 Binlog 的实例 ID。
2.2 进入账号管理页面,单击创建账号,创建用于数据同步的用户。
2.3 在账号所在行,单击操作修改权限,赋予REPLICATION CLIENTREPLICATION SLAVEPROCESS 和全部对象的 SELECT权限。


第二步:网络准备

使用 DTS 进行数据库的订阅,需要分别将源/目标数据库所在的网络与 DTS 所属的腾讯云网络进行打通,以便 DTS 可以连通源/目标数据库。
DTS 支持通过云数据库方式接入源/目标数据库,请先参考 添加 DTS IP 地址至对接数据库白名单 进行网络打通操作。

第三步:使用 DTS 创建数据订阅任务

1. 登录 DTS 控制台,在左侧导航选择数据订阅页,单击新建数据订阅
2. 新建数据订阅页,选择相应配置,单击立即购买
配置项
说明
服务类型
数据订阅
数据库
选择 TDSQL Boundless
地域
地域需与源数据库实例的地域保持一致。
版本
选择 Kafka 版,支持通过 Kafka 客户端直接消费。
订阅实例名称
编辑当前数据订阅实例的名称。

3. 购买成功后,返回数据订阅列表,单击操作列的配置订阅,对刚购买的订阅进行配置,配置完成后才可以使用。

4. 配置数据订阅页面,选择源数据库相应配置,完成后单击测试连通性,测试通过后单击保存并下一步

配置项
说明
云数据库实例
选择在第一步中已开通 Binlog 的实例。
账号/密码
在第一步中已创建的具有REPLICATION CLIENTREPLICATION SLAVEPROCESS 和全部对象的 SELECT权限的账号。
5. 订阅类型和对象选择页面,选择订阅类型,单击保存并下一步

配置项
说明
订阅类型
数据更新:订阅源库全部对象的数据更新,包括数据 INSERTUPDATEDELETE 操作。
结构更新:订阅源库全部对象的结构创建、修改和删除。
全实例:订阅源库全部对象的数据更新和结构更新。
订阅数据格式
支持 ProtoBuf、Avro 和 JSON 三种格式。 ProtoBuf 和 Avro 采用二进制格式,消费效率更高,JSON 采用轻量级的文本格式,更加简单易用。
Topic 分区数量
设置数据投递到内置 Kafka 中 Topic 的分区数量,增加分区数量可提高数据写入和消费的速度。单分区可以保障消息的顺序,多分区无法保障消息顺序,如果您对消费消息的顺序有严格要求,请选择分区数量为1。
Topic 分区策略
Topic 分区数量为4或8时,需配置 Topic 分区策略。
按表名分区:将相同表名的数据写入同一个分区中。
表名 + 主键分区:将相同主键的数据写入同一个分区。适用于热点数据的表,可以将热表数据分散到不同分区中,提升并发消费效率。
使用自定义分区策略
Topic 分区数量为4或8时,支持配置自定义分区策略。
先通过正则表达式对订阅数据中的库名和表名进行匹配,将匹配到的数据按照表名、表名 + 主键、列进行分区投递。再将剩余未匹配到的数据,按照 Topic 分区策略进行投递。详情内容请参考 设置分区策略
6. 预校验页面,预校验任务预计会运行2分钟 - 3分钟,预校验通过后,单击启动完成数据订阅任务配置。

7. 单击启动后,订阅任务会进行初始化,预计会运行3分钟 - 4分钟,初始化成功后进入运行中状态。

帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈