tencent cloud

Data Transfer Service

소식 및 공지 사항
릴리스 노트
제품 소개
제품 개요
데이터 마이그레이션 기능 설명
데이터 동기화 기능 설명
데이터 구독(Kafka 버전) 기능 설명
제품 장점
구매 가이드
과금 개요
환불 설명
시작하기
데이터 마이그레이션 작업 가이드
데이터 동기화 작업 가이드
데이터 구독 작업 가이드(Kafka 버전)
준비 작업
자체구축 MySQL용 Binlog 설정
데이터 마이그레이션
데이터 마이그레이션 지원 데이터베이스
ApsaraDB 교차 계정 인스턴스 간 마이그레이션
PostgreSQL로 마이그레이션
작업 관리
데이터 동기화
데이터 동기화가 지원하는 데이터베이스
계정 간 TencentDB 인스턴스 동기화
작업 관리
데이터 구독(Kafka 버전)
데이터 구독이 지원하는 데이터베이스
데이터 구독 작업 생성
작업 관리
컷오버 설명
모니터링 및 알람
모니터링 메트릭 조회
사례 튜토리얼
양방향 동기화 데이터 구조 생성
다대일 동기화 데이터 구조 생성
멀티 사이트 Active-Active IDC 구축
데이터 동기화 충돌 해결 정책 선택하기
CLB 프록시를 사용하여 계정 간 데이터베이스 마이그레이션하기
CCN으로 자체 구축 MySQL에서 TencentDB for MySQL로 마이그레이션
검증 불통과 처리 방법
버전 확인
원본 데이터베이스 권한 확인
계정 충돌 확인
부분 데이터베이스 매개변수 확인
원본 인스턴스 매개변수 확인
매개변수 설정 충돌 확인
대상 데이터베이스 콘텐츠 충돌 확인
대상 데이터베이스 공간 확인
Binlog 매개변수 확인
증분 마이그레이션 전제 조건 확인
플러그인 호환성 확인
레벨2 파티션 테이블 확인
기본 키 확인
마이그레이션할 테이블에 대한 DDL 확인
시스템 데이터베이스 충돌 확인
소스 및 대상 인스턴스 테이블 구조 확인
InnoDB 테이블 확인
마이그레이션 객체 종속성 확인
제약 조건 확인
FAQs
데이터 마이그레이션
데이터 동기화
데이터 구독 Kafka 버전 FAQ
구독 정규식
API문서
History
Introduction
API Category
Making API Requests
(NewDTS) Data Migration APIs
Data Sync APIs
Data Consistency Check APIs
(NewDTS) Data Subscription APIs
Data Types
Error Codes
DTS API 2018-03-30
Service Agreement
Service Level Agreements
액세스 관리
DTS를 사용할 서브 계정 생성 및 권한 부여
서브 계정에 재무 권한 부여하기
문서Data Transfer ServiceFAQs데이터 구독 Kafka 버전 FAQ

데이터 구독 Kafka 버전 FAQ

PDF
포커스 모드
폰트 크기
마지막 업데이트 시간: 2021-05-10 16:17:24

데이터를 소비할 수 없는 이유는 무엇입니까?

네트워크 문제를 확인하십시오. Kafka 서버 주소가 Tencent Cloud 내부 내트워크 주소이고 Tencent Cloud 및 구독 인스턴스와 같은 리전의 사설 네트워크 내에서만 액세스할 수 있습니다.
구독 topic, 내부 네트워크 주소, 소비자 그룹 이름, 계정, 비밀번호 등이 올바른지 확인하십시오. 데이터 구독 콘솔에서 구독명을 클릭하여 구독 상세 보기 페이지로 들어간 뒤 소비자 관리 페이지를 확인합니다.
Kafka에서 사용하는 인증 메커니즘을 참조하여 암호화 매개변수가 올바른지 확인하십시오.

데이터 포맷은 무엇입니까?

데이터 구독 Kafka 버전은 Protobuf 직렬화 방식을 사용합니다. Protobuf 프로토콜 파일은 여기에서 다운로드할 수 있으며, Demo 프로젝트에도 프로토콜 파일이 포함되어 있습니다. 자세한 내용은 생산 및 소비 로직 설명을 참조하십시오.

[Kafka에서 사용하는 인증 메커니즘은 무엇입니까?] (id:faq3)

인증 메커니즘은 다음과 같습니다.


Kafka commit은 언제 진행하나요?

우선 Kafka의 enable_auto_commit 매개변수를 false로 설정하여 자동 commit을 비활성화하십시오. 메시지의 무결성을 보증하기 위하여 생산자가 메시지 시퀀스의 적절한 위치에 Checkpoint 메시지를 삽입하고, 소비자가 Checkpoint 메시지를 소비하면 commit을 진행합니다.

서버 메시지는 얼마동안 보관되며 소비 offset은 어떻게 설정합니까?

서버 메시지는 1일 동안 보관됩니다. 필요에 따라 Kafka의 auto_offset_reset 매개변수를 earliest 또는 latest로 설정할 수 있습니다. 특정 offset에서 소비를 시작해야 하는 경우, Kafka Client에서 제공하는 seek 기능을 사용해 소비 offset을 재설정 할 수 있습니다.

도움말 및 지원

문제 해결에 도움이 되었나요?

피드백