tencent cloud

数据传输服务

动态与公告
产品动态
公告
产品简介
产品概述
数据迁移功能描述
数据同步功能描述
数据订阅(Kafka 版)功能描述
产品优势
支持的地域
规格说明
购买指南
计费概述
变更配置说明
欠费说明
退费说明
快速入门
数据迁移操作指导
数据同步操作指导
数据订阅操作指导(Kafka 版)
准备工作
业务评估
网络准备
添加 DTS IP 地址至对接数据库白名单
DTS 服务权限准备
数据库及权限准备
配置自建 MySQL 系的 Binlog
数据迁移
数据迁移支持的数据库
云数据库跨账号实例间迁移
迁移至 MySQL 系列
迁移至 PostgreSQL
迁移至 MongoDB
迁移至 SQL Server
迁移至腾讯云分布式缓存数据库
任务管理
数据同步
数据同步支持的数据库
云数据库跨账号实例间同步
同步至 MySQL 系列
同步至 PostgreSQL
同步至 MongoDB
同步至 Kafka
任务管理
数据订阅(Kafka 版)
数据订阅支持的数据库
MySQL 系列数据订阅
TDSQL PostgreSQL 数据订阅
MongoDB 数据订阅
任务管理
消费管理
前置校验不通过处理方法
检查项汇总
割接说明
监控与告警
支持的监控指标
告警通知功能
通过控制台配置指标告警和事件告警
通过 API 配置指标告警和事件告警
运维管理
配置系统维护时间
任务状态扭转说明
实践教程
本地数据库同步上云
构建双向同步数据结构
构建多对一同步数据结构
构建多活数据中心
数据同步冲突策略如何选择
使用 CLB 代理将其他账号下的数据库迁移至本账号下
通过云联网方式迁移自建数据库至腾讯云数据库
DTS 性能调优最佳实践
常见问题
数据迁移
数据同步
数据订阅 Kafka 版常见问题
数据订阅正则表达式
错误处理
常见错误处理
连通性测试不通过
校验项结果不通过或者出现警告
云联网接入配置源数据时无法选择子网
迁移慢或者进度卡住
数据同步有延时
数据订阅延迟过高
数据消费异常
API 文档
History
Introduction
API Category
Making API Requests
(NewDTS) Data Migration APIs
Data Sync APIs
Data Consistency Check APIs
(NewDTS) Data Subscription APIs
Data Types
Error Codes
DTS API 2018-03-30
相关协议
服务等级协议
文档数据传输服务产品简介数据订阅(Kafka 版)功能描述

数据订阅(Kafka 版)功能描述

PDF
聚焦模式
字号
最后更新时间: 2025-08-25 11:25:42

功能概述

数据订阅是指获取数据库中关键业务的数据变化信息,将这些信息包装为消息对象推送到 Kafka 中,方便下游业务订阅、获取和消费。腾讯云 DTS 支持通过 Kafka/Flink Client 直接消费数据,方便用户搭建云数据库和异构系统之间的数据同步,如缓存更新,ETL(数据仓库技术)实时同步,业务异步解耦等。

实现原理

如下以 MySQL 为例进行介绍。数据订阅通过实时拉取源实例的 Binlog 增量日志,将增量数据解析成 Kafka message,然后存储到 Kafka Server。用户可以通过 Kafka Client 来消费数据,Kafka 作为一种开源的消息中间件,支持多数据通道消费和多种 SDK 语言,降低用户的使用成本。


典型应用场景

示例场景一:数据实时分析
使用 DTS 数据订阅,将业务进行异步解耦,在不影响源库业务的情况下,实时同步源库数据到分析系统中,帮助企业用户进行实时数据分析。

示例场景二:数据归档存储
使用 DTS 数据订阅,您可将源数据库的增量更新数据实时地流式推送到归档数据库或数据仓库。




约束限制

订阅的消息内容目前默认保存时间为最近1天,超过保存时间的数据会被清除,请用户及时消费,避免数据在消费完之前就被清除。
数据消费的地域需要与订阅实例的地域相同。
对 MySQL、MariaDB、TDSQL MySQL 的数据订阅,当前不支持 geometry 相关的数据类型。

性能说明

订阅链路中,源库解析的数据先写入 DTS 内置 Kafka 中,然后通过客户端进行消费。写入和消费的性能如下:
场景
性能上限参考
数据写入内置 Kafka(MySQL/MariaDB/Percona/TDSQL-C MySQL/TDSQL MySQL 单分片)
10MB/s 
数据写入内置 Kafka(TDSQL MySQL 多分片)
10MB/s * 分片数
从内置 Kafka 消费数据
20MB/s(单消费组)
50MB/s(多消费组)
如上性能数据仅提供参考,因为在实际使用过程中,源数据库负载过大、网络延迟过高等因素都可能导致性能受限。

支持的订阅类型

DTS 支持订阅对象选择的粒度为库、表,具体支持如下三种订阅类型。
数据更新:指订阅 DML 操作。
结构更新:指订阅 DDL 操作。
全实例:指订阅所有库表的 DML 以及 DDL 操作。

消费支持的数据格式

用户对订阅数据进行消费时,支持 ProtoBuf、Avro 和 JSON 三种形式。ProtoBuf 及 Avro 是二进制格式,效率更高,JSON 为轻量级的文本格式,更加简单易用。

支持的功能列表

支持功能
功能描述
相关文档
支持各种 SDK 语言
数据订阅使用 Kafka 协议,支持各种语言 Kafka Client SDK。
-
支持指标监控和默认告警策略
支持对数据订阅的各项指标进行监控。
支持对数据订阅事件的监控进行默认配置,事件异常时自动通知用户。
支持多数据通道消费
单个实例支持创建多个数据通道,通过创建消费组实现多个通道同时消费。
-
支持分区消费
单 Topic 数据支持分区存储,多个分区的数据并发消费,提升消费效率。
-
支持自定义路由策略
支持将数据字段按照自定义规则路由到 Kafka 分区。
-
支持修改消费位点
支持修改消费位点 Offset。
SSL 安全连接
DTS 与源数据库之间的传输通道支持 SSL 安全连接,对传输通道进行加密。
-
支持 XA 事务
DTS 可以识别源库进行的 XA 事务操作,在消费端获取的数据是按照 XA 事务的逻辑进行解析。 如果源库发生了 XA 事务回滚(rollback),DTS 可以识别 rollback,源库上 rollback 及 rollback 之前的 SQL 语句不会再传递到消费端。
-

帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈