Kafka系列二之部署与使用

摘要:
Kafka的部署和使用在前面的Kafka体系结构介绍和安装中进行了描述。你可能一直在想如何使用卡夫卡?接下来,我们将介绍Kafka的部署和使用。在上一篇文章中,我们说过Kafka的几个重要组件是:1.producter2.consumer3.broker4.topic。所以我们在这些组件周围使用Kafka。我们如何开始?

Kafka部署与使用

写在前面
从上一篇Kafka的架构介绍和安装中,可能,你还一直很蒙,kafka到底该怎么使用呢?接下来,我们就来介绍Kafka的部署与使用。上篇文章中我们说到,Kafka的几个重要组成是:1.producer 2.consumer 3.broker 4.topic .因此我们就是围绕这几个组件来使用我们的Kafka.

如何开始呢?

我们查看官网上面是如何说的,http://kafka.apache.org/quickstart。
接着,第二步,我们启动了一个kafka的server,下面就是应该开始Create a topic

Step 1: Create a topic

bin/kafka-topics.sh --create --zookeeper localhost:2181
–replication-factor 1 --partitions 1 --topic test

解释:
–zookeeper:创建的时候必须指定zk的地址
–replication-factor 副本系数
–partitions 分区数

查看topic

bin/kafka-topics.sh --list --zookeeper localhost:2181

[hadoop@hadoop000 ~]$ kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test1
Created topic "test1".
[hadoop@hadoop000 ~]$ 

Step 2:Send some messages

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

–broker-list 生产的消息放在什么地方(这个地址是之前的broker设置的)
–topic 打上之前的标签

Step 3: Start a consumer

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

–bootstrap-server :文档的误差
这里应该修改为—zookeeper,所以后面的端口也是应该修改的

命令:
kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic hello_topic --from-beginning

–from-beginning 加上这个参数可以接收到之前的数据
不加这个参数的话 只能够收到执行这条命令之后的,生产者生产的数据

到这里我们就部署完成了。开始测试:

这里写图片描述

ok,我们生产者生产的消息,消费者全部都是接收到了的

这里说明一下,在大数据的场景中,我们的生产者一般都是Flume的sink端,即Flume把数据输出到Kafka中去。然后,我们的消费者,就是SparkStreaming等数据处理的东西,后面,我们就来实现flume=>Kafka==>>SparkStreaming的对接…

更多Kafka 相关好文 :https://blog.csdn.net/liuge36/article/category/9392861

免责声明:文章转载自《Kafka系列二之部署与使用》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇gitlab 笔记three添加和移除对象下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Ubuntu14.04或16.04下安装JDK1.8+Scala+Hadoop2.7.3+Spark2.0.2

为了将Hadoop和Spark的安装简单化,今日写下此帖。 首先,要看手头有多少机器,要安装伪分布式的Hadoop+Spark还是完全分布式的,这里分别记录。 1. 伪分布式安装 伪分布式的Hadoop是将NameNode,SecondaryNameNode,DataNode等都放在一台机器上执行,Spark同理,一般用于开发环境。 1.1 准备工作 系统...

AG-Admin微服务框架入门

  AG-Admin微服务框架入门  @qq群:一群: 837736451  二群 169824183 一 概要介绍 AG-Admin后台地址:https://gitee.com/minull/ace-security AG-Admin前端地址:https://gitee.com/minull/AG-Admin-v2.0 要想玩儿转spring cloud...

什么,kafka能够从follower副本读数据了 —kafka新功能介绍

最近看了kafka2.4新版本的一些功能特性,不得不说,在kafka2.0以后,kafka自身就比较少推出一些新的feature了,基本都是一些修修补补的东西。倒是kafka connect和kafka stream相关的开发工作做的比较多。可能kafka的野心也不局限于要当一个中间件,而是要实现一个流处理系统的生态了。 这次要介绍的是我觉得比较有意思的两...

MAMP、wordpress安装

MAMP、Wordpress 一、MAMP   1、简介 1.1、MAMP:本地服务器环境的OS X软件(windows用的是WAMP,原理差不多) 1.2、Apache、MySQL、PHP、Postfix等服务器软件,如果安装了MAMP,等同于全部安装了 1.3、可以集中管理和调整运行环境:PHP多版本的切换、imagemagick图形处理工具、动态...

如何设计实时数据平台(技术篇)

  敏捷之歌 我抽数故我存在 | DBus 人人玩转流处理 | Wormhole 就当吾是数据库 | Moonbox 颜值最后十公里 | Davinci 导读:实时数据平台(RTDP,Real-time Data Platform)是一个重要且常见的大数据基础设施平台。在上篇(设计篇)中,我们从现代数仓架构角度和典型数据处理角度介绍了RTDP,并探讨了...

RocketMQ集群平滑下线或重启某个节点

1.现状描述 集群其中一台物理机未知原因导致单用户无法登陆机器,该物理机需要重启修改密码或者重装系统。该台为master节点,运行正常。配置策略为: 异步刷盘 主从异步复制 如果直接下线该master,由于主从异步复制,可能导致部分消息来不及复制到slave造成消息丢失。所以该方案不可行。另一种方案选择:关闭该broker的写入权限,待该broker不...