kafka命令

摘要:
启动kafka:./kafka-server-start.sh../config/server.properties&查看topic./kafka-topics.sh--zookeeper192.168.8.56:2181,192.168.8.70:2181,192.168.8.147:2181--describe--topicliuhangjun./kafka-topics.sh--zookee

启动kafka:
./kafka-server-start.sh ../config/server.properties &

查看topic
./kafka-topics.sh --zookeeper 192.168.8.56:2181,192.168.8.70:2181,192.168.8.147:2181 --describe --topic liuhangjun
./kafka-topics.sh --zookeeper 192.168.8.147:2181,192.168.8.56:2181,192.168.8.70:2181 --list

生产消息
./kafka-console-producer.sh --broker-list 10.166.112.149:9092 --topic test1

消费消息
./kafka-console-consumer.sh --zookeeper 192.168.8.56:2181,192.168.8.70:2181,192.168.8.147:2181 --topic liuhangjun --from-beginning

删除topic
./kafka-run-class.sh kafka.admin.DeleteTopicCommand --zookeeper 192.168.8.14:6831,192.168.8.15:6831,192.168.8.149:6831 --topic test

消息数量
./kafka-simple-consumer-shell.sh --broker-list 127.0.0.1:9092 --topic test --partition 0 --max-messages 1

免责声明:文章转载自《kafka命令》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇电脑不识别USB blaster驱动问题flutter 蓝牙开发记录下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

kafka学习笔记02-kafka消息存储

kafka消息存储 broker、topic、partition kafka 的数据分布是一个 3 级结构,依次为 broker、topic、partition。 也可以理解为数据库的分库分表,然后还有记录这么一个结构。 broker 可以看作是 kafka 集群中的一个节点,可以理解为一台服务器,是对 kafka 集群中节点的抽象。多个 broker 就...

kafka消息的分发与消费

关于 Topic 和 Partition:   Topic: 在 kafka 中,topic 是一个存储消息的逻辑概念,可以认为是一个消息集合。每条消息发送到 kafka 集群的消息都有一个类别。物理上来说,不同的 topic 的消息是分开存储的,每个 topic 可以有多个生产者向它发送消息,也可以有多个消费者去消费其中的消息。   Partition...

分享一些 Kafka 消费数据的小经验

前言 之前写过一篇《从源码分析如何优雅的使用 Kafka 生产者》 ,有生产者自然也就有消费者。 建议对 Kakfa 还比较陌生的朋友可以先看看。 就我的使用经验来说,大部分情况都是处于数据下游的消费者角色。也用 Kafka 消费过日均过亿的消息(不得不佩服 Kakfa 的设计),本文将借助我使用 Kakfa 消费数据的经验来聊聊如何高效的消费数据。...

zookeeper集群(linux)和单机(windows)搭建

Zookeeper集群(linxu)搭建 环境要求:必须要有jdk环境,本次讲课使用jdk1.8 3.1结构 一共三个节点集群的服务器数量一般为2n+1个,(zk服务器集群规模不小于3个节点),要求服务器之间系统时间保持一致。 3.2上传zk并且解压进行解压: tar -zxvf zookeeper-3.4.6.tar.gz重命名: mv zookeep...

kafka查询命令---Linux

kafka版本:kafka_2.12-2.1.1 kafka_port默认9092,zk_port默认2181 查看topicbin/kafka-topics.sh --zookeeper zk_ip:zk_port --list 查看groupbin/kafka-consumer-groups.sh --bootstrap-server kafka_ip...

【流数据处理】MySql/PG/Oracle+Kafka+Flink(CDC捕获) 部署及实时计算

主要介绍实时数仓得部署、计算 文章主要分3部分 数据采集 $color{red}{[E]}$ 关系型数据库MySql/PG/Oracle+Debezium+Kafka Connector 数据计算 $color{red}{[T]}$ Flink 数据存储 $color{red}{[L]}$ 传输,关系型数据库/列式数据库 clickhouse/hbase...