tencent cloud

消息队列 CKafka 版

动态与公告
新功能发布记录
Broker 版本升级记录
公告
产品简介
TDMQ 产品系列介绍与选型
什么是消息队列 CKafka 版
产品优势
应用场景
技术架构
产品系列介绍
开源 Kafka 版本支持说明
与开源 Kafka 对比
高可用
使用限制
地域和可用区
相关云服务
产品计费
计费概述
价格说明
计费示例
按小时付费转包年包月
续费说明
查看消费明细
欠费说明
退费说明
快速入门
入门流程指引
准备工作
VPC 网络接入
公网域名接入
用户指南
使用流程指引
配置账号权限
创建实例
配置 Topic
连接实例
管理消息
管理消费组
管理实例
变更实例规格
配置限流
配置弹性伸缩策略
配置高级特性
查看监控和配置告警
使用连接器同步数据
实践教程
集群资源评估
客户端实践教程
日志接入
开源生态对接
替换支撑路由(旧)
迁移指南
迁移方案概述
使用开源工具迁移集群
故障处理
Topic 相关
客户端相关
消息相关
API 参考
History
Introduction
API Category
Making API Requests
Other APIs
ACL APIs
Instance APIs
Routing APIs
DataHub APIs
Topic APIs
Data Types
Error Codes
SDK 参考
SDK 概述
Java SDK
Python SDK
Go SDK
PHP SDK
C++ SDK
Node.js SDK
连接器相关 SDK
安全与合规
权限管理
网络安全
删除保护
事件记录
云 API 审计
常见问题
实例相关
Topic 相关
Consumer Group 相关
客户端相关
网络问题
监控相关
消息相关
服务协议
服务等级协议
联系我们
词汇表

Go SDK

PDF
聚焦模式
字号
最后更新时间: 2026-01-05 15:20:01

操作场景

本文介绍使用 Go 客户端连接 CKafka 弹性 Topic 并收发消息的操作步骤。

前提条件

安装 Go

操作步骤

步骤1:准备环境

安装 kafka 依赖。
go get -v gopkg.in/confluentinc/confluent-kafka-go.v1/kafka

步骤2:创建 Topic 和订阅关系

1. 在控制台的弹性 Topic 列表页面创建一个 Topic。


2. 单击 Topic 的 “ID” 进入基本信息页面,获取用户名、密码和地址信息。


3. 订阅关系页签,新建一个订阅关系(消费组)。



步骤3:添加配置文件

创建配置文件 kafka.json。
创建配置文件 kafka.json。
{
"topic": [
"xxxx"
],
"sasl": {
"username": "yourUserName",
"password": "yourPassword",
},
"bootstrapServers": [
"xx.xx.xx.xx:port"
],
"consumerGroupId": "yourConsumerId"
}
参数
描述
bootstrapServers
接入地址,在控制台的弹性 Topic 基本信息页面获取。


username
用户名,在控制台的弹性 Topic 基本信息页面获取。
password
用户密码,在控制台的弹性 Topic 基本信息页面获取。
topic
Topic 名称,在控制台的弹性 Topic 基本信息页面获取。
consumerGroupId
消费组名称,在控制台的弹性 Topic 的订阅关系列表获取。



步骤4:生产消息

1. 编写生产消息程序。
package main

import (
"fmt"
"gokafkademo/config"
"log"
"strings"

"github.com/confluentinc/confluent-kafka-go/kafka"
)

func main() {

cfg, err := config.ParseConfig("../config/kafka.json")
if err != nil {
log.Fatal(err)
}

p, err := kafka.NewProducer(&kafka.ConfigMap{
// 设置接入点,请通过控制台获取对应Topic的接入点。
"bootstrap.servers": strings.Join(cfg.Servers, ","),
// SASL 验证机制类型默认选用 PLAIN
"sasl.mechanism": "PLAIN",
// 在本地配置 ACL 策略。
"security.protocol": "SASL_PLAINTEXT",
// username 是配置的用户名,password 是配置的用户密码。
"sasl.username": cfg.SASL.Username,
"sasl.password": cfg.SASL.Password,

// Kafka producer 的 ack 有 3 种机制,分别说明如下:
// -1 或 all:Broker 在 leader 收到数据并同步给所有 ISR 中的 follower 后,才应答给 Producer 继续发送下一条(批)消息。
// 这种配置提供了最高的数据可靠性,只要有一个已同步的副本存活就不会有消息丢失。注意:这种配置不能确保所有的副本读写入该数据才返回,
// 可以配合 Topic 级别参数 min.insync.replicas 使用。
// 0:生产者不等待来自 broker 同步完成的确认,继续发送下一条(批)消息。这种配置生产性能最高,但数据可靠性最低(当服务器故障时可能会有数据丢失,如果 leader 已死但是 producer 不知情,则 broker 收不到消息)
// 1: 生产者在 leader 已成功收到的数据并得到确认后再发送下一条(批)消息。这种配置是在生产吞吐和数据可靠性之间的权衡(如果leader已死但是尚未复制,则消息可能丢失)
// 用户不显示配置时,默认值为1。用户根据自己的业务情况进行设置
"acks": 1,
// 请求发生错误时重试次数,建议将该值设置为大于0,失败重试最大程度保证消息不丢失
"retries": 0,
// 发送请求失败时到下一次重试请求之间的时间
"retry.backoff.ms": 100,
// producer 网络请求的超时时间。
"socket.timeout.ms": 6000,
// 设置客户端内部重试间隔。
"reconnect.backoff.max.ms": 3000,
})
if err != nil {
log.Fatal(err)
}

defer p.Close()

// 产生的消息 传递至报告处理程序
go func() {
for e := range p.Events() {
switch ev := e.(type) {
case *kafka.Message:
if ev.TopicPartition.Error != nil {
fmt.Printf("Delivery failed: %v\\n", ev.TopicPartition)
} else {
fmt.Printf("Delivered message to %v\\n", ev.TopicPartition)
}
}
}
}()

// 异步发送消息
topic := cfg.Topic
for _, word := range []string{"Confluent-Kafka", "Golang Client Message"} {
_ = p.Produce(&kafka.Message{
TopicPartition: kafka.TopicPartition{Topic: &topic, Partition: kafka.PartitionAny},
Value: []byte(word),
}, nil)
}

// 等待消息传递
p.Flush(10 * 1000)
2. 编译并运行程序发送消息。
go run main.go
3. 查看运行结果,示例如下。
Delivered message to test[0]@628
Delivered message to test[0]@629

步骤5:消费消息

1. 编写消费消息程序。
package main

import (
"fmt"
"gokafkademo/config"
"log"
"strings"

"github.com/confluentinc/confluent-kafka-go/kafka"
)

func main() {

cfg, err := config.ParseConfig("../config/kafka.json")
if err != nil {
log.Fatal(err)
}

c, err := kafka.NewConsumer(&kafka.ConfigMap{
// 设置接入点,请通过控制台获取对应Topic的接入点。
"bootstrap.servers": strings.Join(cfg.Servers, ","),
// SASL 验证机制类型默认选用 PLAIN
"sasl.mechanism": "PLAIN",
// 在本地配置 ACL 策略。
"security.protocol": "SASL_PLAINTEXT",
// username 是配置的用户名,password 是配置的用户密码。
"sasl.username": cfg.SASL.Username,
"sasl.password": cfg.SASL.Password,
// 设置的消息消费组
"group.id": cfg.ConsumerGroupId,
"auto.offset.reset": "earliest",

// 使用 Kafka 消费分组机制时,消费者超时时间。当 Broker 在该时间内没有收到消费者的心跳时,认为该消费者故障失败,Broker
// 发起重新 Rebalance 过程。目前该值的配置必须在 Broker 配置group.min.session.timeout.ms=6000和group.max.session.timeout.ms=300000 之间
"session.timeout.ms": 10000,
})

if err != nil {
log.Fatal(err)
}
// 订阅的消息topic 列表
err = c.SubscribeTopics([]string{"test", "test-topic"}, nil)
if err != nil {
log.Fatal(err)
}

for {
msg, err := c.ReadMessage(-1)
if err == nil {
fmt.Printf("Message on %s: %s\\n", msg.TopicPartition, string(msg.Value))
} else {
// 客户端将自动尝试恢复所有的 error
fmt.Printf("Consumer error: %v (%v)\\n", err, msg)
}
}

c.Close()
}
2. 编译并运行程序消费消息。
go run main.go
3. 查看运行结果,示例如下。
Message on test[0]@628: Confluent-Kafka
Message on test[0]@629: Golang Client Message



帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈