活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
查看全部活动
热门活动
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 一键部署Llama3大模型学习机 0代码一键部署,预装最新主流大模型Llama3与StableDiffusion
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 产品能力
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
    • 关系数据库SQL Server版
    • 企业主机安全
    • 云防火墙
    • CDN加速
    • 物理机
    • GPU云主机
    • 天翼云电脑(政企版)
    • 天翼云电脑(公众版)
    • 云主机备份
    • 弹性云主机
      搜索发现
      关系数据库SQL Server版企业主机安全云防火墙CDN加速物理机GPU云主机天翼云电脑(政企版)天翼云电脑(公众版)云主机备份弹性云主机
    • 文档
    • 控制中心
    • 备案
    • 管理中心
    • 登录
    • 免费注册

    查看所有产品

    分布式消息服务Kafka

    分布式消息服务Kafka

    目录
      • 产品动态
      • 产品简介
      • 产品定义
      • 产品优势
      • 应用场景
      • 产品规格
      • 与RabbitMQ、RocketMQ的差异
      • 与开源Kafka的差异
      • 约束与限制
      • 与其他云服务的关系
      • Kafka相关概念
      • 权限管理
      • 计费说明
      • 计费项
      • 计费模式
      • 产品价格
      • 快速入门
      • 入门指引
      • 步骤一:准备环境
      • 步骤二:创建Kafka实例
      • (可选)步骤三:创建Topic
      • 步骤四:连接实例生产消费消息
      • 不使用SASL证书连接
      • 使用SASL证书连接
      • 步骤五:配置必须的监控告警
      • 用户指南
      • 权限管理
      • 创建用户并授权使用DMS for Kafka
      • DMS for Kafka自定义策略
      • DMS for Kafka资源
      • DMS for Kafka请求条件
      • 准备实例依赖资源
      • 购买实例
      • 连接Kafka实例
      • 配置Kafka实例的公网访问
      • 连接未开启SASL的Kafka实例
      • 连接已开启SASL的Kafka实例
      • 连接和查看Kafka Manager
      • 使用DNAT访问Kafka实例
      • 制作并替换证书
      • 实例管理
      • 变更实例规格
      • 查看实例
      • 重启实例
      • 删除实例
      • 修改实例信息
      • 设置实例公网访问
      • 按需转包周期
      • 重置Kafka密码
      • 重置Kafka Manager密码
      • 重启Kafka Manager
      • 管理实例标签
      • 查看实例后台任务
      • 查看磁盘使用量
      • Topic管理
      • 创建Topic
      • 删除Topic
      • 修改Topic老化时间
      • 修改Topic分区数
      • 修改同步复制和同步落盘
      • 修改分区平衡
      • 查看示例代码
      • 导出Topic
      • 设置Topic权限
      • 消息管理
      • 查询消息
      • 删除消息
      • SASL_SSL用户管理
      • 创建SASL_SSL用户
      • 重置SASL_SSL密码
      • 删除SASL_SSL用户
      • 消费组管理
      • 创建消费组
      • 查询消费组信息
      • 删除消费组
      • 重置消费进度
      • 查看消费者连接地址
      • 流控管理
      • 创建流控
      • 编辑流控
      • 删除流控
      • 查看流控监控
      • 修改配置参数
      • 调整资源配额
      • 监控
      • 查看监控数据
      • 支持的监控指标
      • 必须配置的监控告警
      • Kafka数据迁移
      • Kafka数据迁移概述
      • 使用Smart Connect迁移Kafka数据
      • 开启Smart Connect
      • 配置Kafka之间的数据复制
      • 配置Kafka数据转储至OBS
      • 管理Smart Connect任务
      • 关闭Smart Connect
      • 云审计服务支持的关键操作
      • 云审计服务支持的DMS for Kafka操作列表
      • 查看云审计日志
      • 最佳实践
      • DMS for Kafka 消费者poll的优化
      • 如何提高消息处理效率
      • Kafka业务迁移
      • 使用MirrorMaker跨集群数据同步
      • 日志收集系统Flume接入Kafka
      • Kafka客户端参数配置建议
      • Kafka客户端使用规范
      • 流数据实时处理框架Flink接入Kafka
      • 如何设置消息堆积数超过阈值时,发送告警短信/邮件
      • 日志处理工具Logstash接入Kafka
      • Kafka Connect接入Kafka
      • 常见问题
      • 实例问题
      • 实例规格变更问题
      • 连接问题
      • Topic和分区问题
      • 消费组问题
      • 消息类问题
      • Kafka Manager问题
      • 监控告警问题
      • 视频专区
      • 文档下载
      • 相关协议
      • 分布式消息服务Kafka服务等级协议(新)
      • 分布式消息服务Kafka服务协议
        无相关产品

        本页目录

        Kafka生产消息的最大长度是多少?

        为什么Kafka实例常常发生Rebalance,导致消息拉取失败?

        解决方法/排查思路

        为什么Console页面上,消息查询查不到消息?

        Kafka消息堆积了怎么办?

        消息超过老化时间,消息仍存在的原因

        Kafka实例是否支持延迟消息?

        如何查看堆积消息数?

        为什么消息创建时间显示1970?

        选择产品所在区域 根据产品所在区域的不同,文档内容也会对应进行调整
        二类节点
        一类节点
        华东地区
        杭州2/杭州7/合肥2/华东1/南昌5/上海36/芜湖2/芜湖4
        华南地区
        长沙42/佛山3/福州4/华南2/武汉41
        西北地区
        庆阳2/乌鲁木齐27/乌鲁木齐7/西安3/西安7/中卫5
        西南地区
        重庆2/贵州3/昆明2/西南1/西南2-贵州
        北方地区
        北京5/华北2/呼和浩特3/内蒙6/青岛20/石家庄20/太原4/郑州5
        选择节点类型
        一类节点
        华东地区
        杭州2/杭州7/合肥2/华东1/南昌5/上海36/芜湖2/芜湖4
        华南地区
        长沙42/佛山3/福州4/华南2/武汉41
        西北地区
        庆阳2/乌鲁木齐27/乌鲁木齐7/西安3/西安7/中卫5
        西南地区
        重庆2/贵州3/昆明2/西南1/西南2-贵州
        北方地区
        北京5/华北2/呼和浩特3/内蒙6/青岛20/石家庄20/太原4/郑州5
        二类节点
        华东地区
        杭州/南昌/上海4/苏州/芜湖
        华南地区
        长沙2/福州1/广州4/深圳/武汉2
        西北地区
        兰州/乌鲁木齐/西安2/中卫
        西南地区
        成都3/重庆/贵州1/昆明
        北方地区
        北京2/华北/内蒙3/青岛/石家庄/太原/郑州
        帮助中心 分布式消息服务Kafka 常见问题 消息类问题
        选择产品所在区域 根据产品所在区域的不同,文档内容也会对应进行调整
        二类节点
        一类节点
        华东地区
        杭州2/杭州7/合肥2/华东1/南昌5/上海36/芜湖2/芜湖4
        华南地区
        长沙42/佛山3/福州4/华南2/武汉41
        西北地区
        庆阳2/乌鲁木齐27/乌鲁木齐7/西安3/西安7/中卫5
        西南地区
        重庆2/贵州3/昆明2/西南1/西南2-贵州
        北方地区
        北京5/华北2/呼和浩特3/内蒙6/青岛20/石家庄20/太原4/郑州5
        选择节点类型
        一类节点
        华东地区
        杭州2/杭州7/合肥2/华东1/南昌5/上海36/芜湖2/芜湖4
        华南地区
        长沙42/佛山3/福州4/华南2/武汉41
        西北地区
        庆阳2/乌鲁木齐27/乌鲁木齐7/西安3/西安7/中卫5
        西南地区
        重庆2/贵州3/昆明2/西南1/西南2-贵州
        北方地区
        北京5/华北2/呼和浩特3/内蒙6/青岛20/石家庄20/太原4/郑州5
        二类节点
        华东地区
        杭州/南昌/上海4/苏州/芜湖
        华南地区
        长沙2/福州1/广州4/深圳/武汉2
        西北地区
        兰州/乌鲁木齐/西安2/中卫
        西南地区
        成都3/重庆/贵州1/昆明
        北方地区
        北京2/华北/内蒙3/青岛/石家庄/太原/郑州
        消息类问题
        更新时间 2023-07-27 15:44:30
        • 新浪微博
        • 微信
          扫码分享
        • 复制链接
        最近更新时间: 2023-07-27 15:44:30
        下载本页

        消息类问题

        2023-07-27 07:44:30

        Kafka生产消息的最大长度是多少?

        生产消息的最大长度为10M。

        为什么Kafka实例常常发生Rebalance,导致消息拉取失败?

        消费组的Rebalance就是对Topic分区的重新分配。

        正常情况下消费组内加入新的消费者或老的消费者退出都会导致Rebalance,这种情况是无法避免的。但是某些特殊情况下,消费者会被误认为异常从而被踢出消费组,此时可能会导致消费异常,需要重点关注。

        消费者被误认为异常从而被踢出消费组的场景如下:

        1. 未能及时发送心跳请求。

        消费者以设置的heartbeat.interval.ms为间隔向broker发送心跳请求,如果broker在session.timeout.ms时间内没有收到消费者的心跳请求,broker会认为消费者异常,从而将其从消费组中踢出,然后开始新一轮的Rebalance。

        1. 消费者消费时间间隔过长。

        消费者每次最多消费max.poll.records条消息,多数情况下客户端都会把一次消费到的数据处理完后才会开始下一次消费,如果单次消费的消息太多导致无法在max.poll.interval.ms时间内处理完或消息处理流程发生了异常(如需要写入后端数据库,后端数据库压力太大,时延增加等)导致消费时间增加,在max.poll.interval.ms时间内消费者没有发起下一次消费请求,broker认为消费者不活跃而将其踢出消费组,然后开始新一轮的Rebalance。

        解决方法/排查思路

        场景一: 未能及时发送心跳请求

        解决方法: 建议在消费者客户端将session.timeout.ms值设置为heartbeat.interval.ms值3倍以上。

        场景二: 消费者消费时间间隔过长

        排查思路:

        1. 检查单条消息的处理时间是多久,处理max.poll.records条消息会不会超过max.poll.interval.ms时间。
        2. 消息处理流程是否有网络行为,如写数据库、调用后端API等,在发生Rebalance的场景下后端是否正常。

        解决方法: 建议在消费者客户端将max.poll.records值减小。

        为什么Console页面上,消息查询查不到消息?

        • 可能原因1: 消息已被老化。

        解决方法: 修改老化时间。

        • 可能原因2: 消息的createTime时间戳不对。

        Console页面是根据时间查询的,所以查不到。时间戳是由客户端生成,不同客户端有不同的处理策略,有的客户端默认值会是0或者-1,则查询不到消息。

        解决方法: 检查客户端消息的createTime设置是否正确。

        • 可能原因3: 磁盘容量超过95%,且“容量阈值策略”设置为“自动删除”。

        “容量阈值策略”设置为“自动删除”,表示磁盘容量达到95%时,系统会删除最早的10%的消息,以保证磁盘容量充足。当磁盘容量超过95%时,未到达老化时间的消息也会被删除,所以可能会导致部分消息查询不到。

        解决方法: 修改容量阈值策略或扩大磁盘容量。“容量阈值策略”设置为“生产受限”,表示一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。

        Kafka消息堆积了怎么办?

        问题现象: 实例的监控指标“堆积消息数”产生了告警。

        处理方法: 登录Kafka Manager,找出消息堆积的消费组,观察消费组是否有消费者在消费,如果有,让业务方加快消费效率,如果没有,让客户酌情删掉不使用的消费组。

        消息超过老化时间,消息仍存在的原因

        问题现象: 消息超过设置的老化时间(如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。),消息仍存在。

        可能原因1: Topic的每个分区都是由多个大小相同的segment文件组成,每个segment文件的大小为500MB,当segment文件存储的消息大小到达500MB后,才会新建下一个segment文件。Kafka删除消息是删除segment文件,而不是删除一条消息。Kafka要求至少保留一个segment文件用来存储消息,如果正在使用的segment文件中包含超过老化时间的消息,由于此时segment文件不会被删除,所以超过老化时间的消息也不会被删除。

        处理方法: 等待segment文件被使用完,或者删除超过老化时间的消息所在的Topic。

        可能原因2: Topic中存在一条create time为未来时间的消息(例如当前时间为1月1日,create time设置成了2月1日),此消息在72小时后,并不会被老化,导致在此消息后创建的其他消息都不会被老化。

        处理方法: 删除create time为未来时间的消息所在的Topic。

        Kafka实例是否支持延迟消息?

        不支持延迟消息。

        如何查看堆积消息数?

        通过以下任意一种方法,查看堆积消息数。

        • 在Kafka控制台的“消费组管理”页面,单击待查看堆积消息的消费组名称,进入消费组详情页。在“消费进度”页签,查看消费组中每个Topic的总堆积数。具体步骤,请参考查询消费组信息。

        • 在Kafka控制台的“监控”页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。

        • 在云监控页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。

        • 在Kafka客户端,在“/{命令行工具所在目录}/kafka_{version}/bin/”目录下,通过 kafka-consumer-groups.sh --bootstrap-server {kafka连接地址} --describe --group {消费组} 命令查看消费组中每个Topic的堆积消息数。“LAG”表示每个Topic的总堆积数。

        图 查看每个Topic的总堆积数

        图片18.png

        说明

        如果Kafka实例开启SASL认证,则以上命令还需要增加SASL认证的“consumer.properties”配置文件参数: --command-config {SASL认证的consumer.properties配置文件} ,“consumer.properties”配置文件参考开启SASL认证的Kafka命令行连接说明。

        为什么消息创建时间显示1970?

        消息创建时间是由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,消息创建时间会默认为1970。

        分享文章
        • 新浪微博
        • 微信
          扫码分享
        • 复制链接
        本文主要介绍 消息类问题

        Kafka生产消息的最大长度是多少?

        生产消息的最大长度为10M。

        为什么Kafka实例常常发生Rebalance,导致消息拉取失败?

        消费组的Rebalance就是对Topic分区的重新分配。

        正常情况下消费组内加入新的消费者或老的消费者退出都会导致Rebalance,这种情况是无法避免的。但是某些特殊情况下,消费者会被误认为异常从而被踢出消费组,此时可能会导致消费异常,需要重点关注。

        消费者被误认为异常从而被踢出消费组的场景如下:

        1. 未能及时发送心跳请求。

        消费者以设置的heartbeat.interval.ms为间隔向broker发送心跳请求,如果broker在session.timeout.ms时间内没有收到消费者的心跳请求,broker会认为消费者异常,从而将其从消费组中踢出,然后开始新一轮的Rebalance。

        1. 消费者消费时间间隔过长。

        消费者每次最多消费max.poll.records条消息,多数情况下客户端都会把一次消费到的数据处理完后才会开始下一次消费,如果单次消费的消息太多导致无法在max.poll.interval.ms时间内处理完或消息处理流程发生了异常(如需要写入后端数据库,后端数据库压力太大,时延增加等)导致消费时间增加,在max.poll.interval.ms时间内消费者没有发起下一次消费请求,broker认为消费者不活跃而将其踢出消费组,然后开始新一轮的Rebalance。

        解决方法/排查思路

        场景一: 未能及时发送心跳请求

        解决方法: 建议在消费者客户端将session.timeout.ms值设置为heartbeat.interval.ms值3倍以上。

        场景二: 消费者消费时间间隔过长

        排查思路:

        1. 检查单条消息的处理时间是多久,处理max.poll.records条消息会不会超过max.poll.interval.ms时间。
        2. 消息处理流程是否有网络行为,如写数据库、调用后端API等,在发生Rebalance的场景下后端是否正常。

        解决方法: 建议在消费者客户端将max.poll.records值减小。

        为什么Console页面上,消息查询查不到消息?

        • 可能原因1: 消息已被老化。

        解决方法: 修改老化时间。

        • 可能原因2: 消息的createTime时间戳不对。

        Console页面是根据时间查询的,所以查不到。时间戳是由客户端生成,不同客户端有不同的处理策略,有的客户端默认值会是0或者-1,则查询不到消息。

        解决方法: 检查客户端消息的createTime设置是否正确。

        • 可能原因3: 磁盘容量超过95%,且“容量阈值策略”设置为“自动删除”。

        “容量阈值策略”设置为“自动删除”,表示磁盘容量达到95%时,系统会删除最早的10%的消息,以保证磁盘容量充足。当磁盘容量超过95%时,未到达老化时间的消息也会被删除,所以可能会导致部分消息查询不到。

        解决方法: 修改容量阈值策略或扩大磁盘容量。“容量阈值策略”设置为“生产受限”,表示一旦磁盘使用达到容量阈值95%,会导致后续生产失败,但保留了当前磁盘中的数据,直至数据自然老化。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。

        Kafka消息堆积了怎么办?

        问题现象: 实例的监控指标“堆积消息数”产生了告警。

        处理方法: 登录Kafka Manager,找出消息堆积的消费组,观察消费组是否有消费者在消费,如果有,让业务方加快消费效率,如果没有,让客户酌情删掉不使用的消费组。

        消息超过老化时间,消息仍存在的原因

        问题现象: 消息超过设置的老化时间(如果Topic已经设置了老化时间,此时“配置参数”中的log.retention.hours值将不对此Topic生效。仅在Topic中未设置老化时间时,“配置参数”中的log.retention.hours值才会对此Topic生效。),消息仍存在。

        可能原因1: Topic的每个分区都是由多个大小相同的segment文件组成,每个segment文件的大小为500MB,当segment文件存储的消息大小到达500MB后,才会新建下一个segment文件。Kafka删除消息是删除segment文件,而不是删除一条消息。Kafka要求至少保留一个segment文件用来存储消息,如果正在使用的segment文件中包含超过老化时间的消息,由于此时segment文件不会被删除,所以超过老化时间的消息也不会被删除。

        处理方法: 等待segment文件被使用完,或者删除超过老化时间的消息所在的Topic。

        可能原因2: Topic中存在一条create time为未来时间的消息(例如当前时间为1月1日,create time设置成了2月1日),此消息在72小时后,并不会被老化,导致在此消息后创建的其他消息都不会被老化。

        处理方法: 删除create time为未来时间的消息所在的Topic。

        Kafka实例是否支持延迟消息?

        不支持延迟消息。

        如何查看堆积消息数?

        通过以下任意一种方法,查看堆积消息数。

        • 在Kafka控制台的“消费组管理”页面,单击待查看堆积消息的消费组名称,进入消费组详情页。在“消费进度”页签,查看消费组中每个Topic的总堆积数。具体步骤,请参考查询消费组信息。

        • 在Kafka控制台的“监控”页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。

        • 在云监控页面的“消费组”页签中,“消费组”选择待查看堆积消息数的消费组名称,“队列”选择“全部队列”,“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看监控数据。

        • 在Kafka客户端,在“/{命令行工具所在目录}/kafka_{version}/bin/”目录下,通过 kafka-consumer-groups.sh --bootstrap-server {kafka连接地址} --describe --group {消费组} 命令查看消费组中每个Topic的堆积消息数。“LAG”表示每个Topic的总堆积数。

        图 查看每个Topic的总堆积数

        图片18.png

        说明

        如果Kafka实例开启SASL认证,则以上命令还需要增加SASL认证的“consumer.properties”配置文件参数: --command-config {SASL认证的consumer.properties配置文件} ,“consumer.properties”配置文件参考开启SASL认证的Kafka命令行连接说明。

        为什么消息创建时间显示1970?

        消息创建时间是由生产客户端在生产消息时通过CreateTime指定的,如果生产消息时没有设置此参数,消息创建时间会默认为1970。

        上一篇 :  消费组问题
        下一篇 :  Kafka Manager问题
        相关文档
        产品优势
        Kafka数据迁移
        约束与限制
        编辑流控
        连接未开启SASL的Kafka实例
        连接和查看Kafka Manager
        建议与反馈
        以上内容是否对您有帮助?
        有 没有
        感谢您的反馈,您的支持是我们前进的动力!
        您的操作过于频繁,清稍后再试
        文档反馈

        建议您登录后反馈,可在建议与反馈里查看问题处理进度

        鼠标选中文档,精准反馈问题

        选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

        知道了

         文本反馈

        本页目录

        Kafka生产消息的最大长度是多少?
        为什么Kafka实例常常发生Rebalance,导致消息拉取失败?
        解决方法/排查思路
        为什么Console页面上,消息查询查不到消息?
        Kafka消息堆积了怎么办?
        消息超过老化时间,消息仍存在的原因
        Kafka实例是否支持延迟消息?
        如何查看堆积消息数?
        为什么消息创建时间显示1970?
        搜索
          无相关产品
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明
          • 智能客服
            7*24小时不间断售后保障
          • 服务咨询
            400-810-9889
          • 建议与反馈
            天翼云与您共创优质云平台

          您对此文档页面满意吗?

          非常不满意 非常满意
          0 1 2 3 4 5 6 7 8 9 10
          操作失败,请您稍后再试