大数据篇Kafka消息队列指定Topic打印Key、Value、Offset和Partition

这篇具有很好参考价值的文章主要介绍了大数据篇Kafka消息队列指定Topic打印Key、Value、Offset和Partition。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、概念简介

说到Apache Kafka消息传递系统时,以下是一些关键概念的解释:

Key(键):Kafka消息由Key和Value组成。Key是一个可选的字段,它通常用于消息的路由和分区策略。Key的目的是确保具有相同Key的消息被写入同一个分区。当消费者接收到消息时,可以使用Key来进行消息处理和路由操作。在某些情况下,Key还可以用于数据合并和聚合。

Value(值):Value是Kafka消息中包含的实际数据。它可以是任何形式的字节流,没有特定的格式要求。Value可以是文本、二进制数据、JSON、XML或任何其他格式的信息。消费者通常根据Value进行业务逻辑处理。

Offset(偏移量):Offset是一个用来唯一标识Kafka分区中每条消息的数字。每个分区都有自己的Offset序列,并且它们是连续递增的。Offset的作用是跟踪每个消费者在分区中的处理位置。当消费者读取消息时,它会保存最后处理的Offset,以便在下次读取消息时从正确的位置开始。

Partition(分区):Kafka将主题划分为多个分区,每个分区是一个有序的、持久化的日志文件。分区使得Kafka能够实现高吞吐量和水平扩展。在生产者写入消息时,Kafka会根据特定的分区策略将消息写入到合适的分区中。每个分区都有自己的一系列Offset,并且可以被独立地读取和复制。

总结起来,Kafka的消息由Key和Value组成,Key用于路由和分区策略,Value是实际的消息数据。每个消息都有一个唯一的Offset,用于跟踪消费者在分区中的处理位置。而分区则允许Kafka实现高吞吐量和扩展性。

2、代码实现

写一段代码打印一下当前Kafka队列中指定一个Topic,打印Key、Value、Offset和Partition文章来源地址https://www.toymoban.com/news/detail-586420.html

package test.scala;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;

import java.util.Collections;
import java.util.Properties;

public class KafkaDebug {
    public static void main(String[] args) {
        String bootstrapServers = "hadoop101:9092";
        String topic = "TOPIC_TEST_MESSAGE";

        // 设置消费者配置
        Properties props = new Properties();
        props.setProperty("bootstrap.servers", bootstrapServers);
        props.setProperty("group.id", "msg_group");
        props.setProperty("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.setProperty("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.setProperty("auto.offset.reset", "earliest");


        // 创建消费者
        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
        // 订阅 Topic
        consumer.subscribe(Collections.singletonList(topic));
        // 从 Offset 0 开始消费
        consumer.poll(0); // 触发分区分配
        for (TopicPartition partition : consumer.assignment()) {
            consumer.seek(partition, 0); // 将消费者的偏移量设置为 0
        }
        // 消费消息并打印 Key 和 Offset
        while (true) {
            ConsumerRecords<String, String> records = consumer.poll(100);
            for (ConsumerRecord<String, String> record : records) {
                System.out.println("Key: " + record.key() + ", Offset: " + record.offset() + ", Partition: " + record.partition());
                System.out.println("Value:" + record.value());
            }
        }
    }
}

到了这里,关于大数据篇Kafka消息队列指定Topic打印Key、Value、Offset和Partition的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • kafka通过命令行删除指定topic下所有records

    kafka通过命令行删除指定topic下所有records

     1、kafka环境配置  由于在windows环境下,在kafka官网下载下来Apache Kafka需要将E:kafka_2.12-3.3.1binwindows下的路径加入到环境变量中,方便直接使用kafka工具,其他系统直接使用bin下的工具即可: 2、配置kafka指定topic的json文件,命名为delete.json,此文件放在任意位置都可: 可以查

    2024年02月14日
    浏览(18)
  • kafka删除topic消息的三种方式

    kafka删除topic消息的三种方式 方法一:快速配置删除法(确保topic数据不要了) 1.kafka启动之前,在server.properties配置delete.topic.enable=true 2.执行命令bin/kafka-topics.sh --delete --topic test --zookeeper zk:2181或者使用kafka-manager集群管理工具删除 注意:如果kafka启动之前没有配置delete.topic.e

    2024年02月16日
    浏览(7)
  • Docker 安装kafka 并创建topic 进行消息通信

    Docker 安装kafka 并创建topic 进行消息通信

            Apache Kafka是一个分布式流处理平台,用于构建高性能、可扩展的实时数据流应用程序。本文将介绍如何使用Docker容器化技术来安装和配置Apache Kafka。 1、kafka安装必须先安装Zookpper 2、下载镜像 3、查看下载好的镜像 4、启动Kafka 5、查看是否创建好Kafka容器 6、进入到

    2024年03月15日
    浏览(7)
  • 消息队列Pulsar入门(一) 生产者/消费者/Topic详解,附源码演示

    消息队列Pulsar入门(一) 生产者/消费者/Topic详解,附源码演示

    部署问题 连接Pulsar 创建方式 简单方法创建 loadConf自定义配置创建 Pulsar官网 发送模式 同步发送 异步发送 访问方式/发送方式 Share模式(默认情况) 请注意: Exclusive WaitForExclusive 创建方式 简单方法创建 监听器方法创建 loadConf自定义配置创建 多主题订阅 传入List数组的多主题订阅

    2024年02月08日
    浏览(34)
  • Debezium系列之:把value中指定字段的键值对放到key中,进一步实现key中只保留指定字段的值

    需要把value中的指定的键值对放到key中 例如需要把产品代号cdc_code和产品名称product放到key中#

    2024年02月09日
    浏览(16)
  • kafka 基础概念、命令行操作(查看所有topic、创建topic、删除topic、查看某个Topic的详情、修改分区数、发送消息、消费消息、 查看消费者组 、更新消费者的偏移位置)

    kafka 基础概念、命令行操作(查看所有topic、创建topic、删除topic、查看某个Topic的详情、修改分区数、发送消息、消费消息、 查看消费者组 、更新消费者的偏移位置)

    kafka官网 Broker   一台kafka服务器就是一个broker,可容纳多个topic。一个集群由多个broker组成; Producer   生产者,即向kafka的broker-list发送消息的客户端; Consumer   消费者,即向kafka的broker-list订阅消息的客户端; Consumer Group   消费者组是 逻辑上的一个订阅者 ,由多个

    2024年02月01日
    浏览(43)
  • Kafka - 主题Topic与消费者消息Offset日志记录机制

    Kafka - 主题Topic与消费者消息Offset日志记录机制

    可以根据业务类型,分发到不同的Topic中,对于每一个Topic,下面可以有多个分区(Partition)日志文件: kafka 下的Topic的多个分区,每一个分区实质上就是一个队列,将接收到的消息暂时存储到队列中,根据配置以及消息消费情况来对队列消息删除。 可以这么来理解Topic,Partitio

    2024年02月03日
    浏览(12)
  • 原生 Kafka 消费时无限报 Error deserializing key/value for partition 问题

    背景 使用 kafka-clients.jar 中的 原生 API 消费 Kafka 数据时, consumer.poll 操作遇到了一个异常: 自定义的消费线程遇到这个异常后,一直刷该异常。网上给的解决办法都是使用 spring-kafka 设置异常处理器实现的,但是对于原生 API 怎么办呢? 解决办法 搜到一篇文章 《如何最好地

    2024年02月14日
    浏览(9)
  • rabbitmq topic模式设置#通配符情况下 消费者队列未接收消息问题排查解决

    rabbitmq topic模式设置#通配符情况下 消费者队列未接收消息问题排查解决

    生产者配置 Exchange:topic_exchange_shcool Routing key:topic.shcool.# 消费者代码配置 Exchange:topic_exchange_shcool Routing key:topic.shcool.user 其实以上代码看着没有问题,意思是代码生成一个队列,并把【topic.shcool.user】队列和生产者的【topic_exchange_shcool】exchange绑定,但是生产者发送消息是

    2024年02月11日
    浏览(13)
  • Kafka系列:查看Topic列表、消息消费情况、模拟生产者消费者

    Kafka系列:查看Topic列表、消息消费情况、模拟生产者消费者

    执行topic删除命令时,出现提示 这条命令其实并不执行删除动作,仅仅是在zookeeper上标记该topic要被删除而已,同时也提醒用户一定要提前打开delete.topic.enable开关,否则删除动作是不会执行的。 解决办法: a)在server.properties中设置delete.topic.enable参数为ture b)如下操作: 1.登

    2023年04月26日
    浏览(11)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包