目录
- 消费者
- 消费者组
- 消费方式
- 消费规则
- 独立消费主题
- 代码示例(极简)
- 代码示例(独立消费分区)
- offset
- 自动提交
- 代码示例(自动提交)
- 手动提交
- 代码示例(同步)
- 代码示例(异步)
- 其他说明
消费者
消费者组
- 由多个消费者组成
- 消费者组之间互不影响。
- 其他消费规则如下
消费方式
-
push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由broker决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。
-
consumer采用pull(拉)模式从broker中读取数据。pull模式则可以根据consumer的消费能力以适当的速率消费消息。
pull模式不足之处是,如果kafka没有数据,消费者可能会陷入循环中,一直返回空数据。针对这一点,Kafka的消费者在消费数据时会传入一个时长参数timeout,如果当前没有数据可供消费,consumer会等待一段时间之后再返回,这段时长即为timeout。
消费规则
- 一个消费者(单独消费者或消费者组中的一个)可以消费一个分区中的数据也可以消费两个或以上的分区数据
- 消费者组中的消费者必须访问不同的数据分区,不能访问同一个
- 同一个分区中的数据允许被不同的消费者访问(消费者不属于同一个组)
独立消费主题
代码示例(极简)
以下代码创建模拟一个消费者组(testCg)中的消费者,订阅来自topicA的消息
CustomTopicConsumer.java
package com.wunaiieq.consumer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.Properties;
//创建一个独立消费者,消费topicA主题下的数据
public class CustomTopicConsumer {
public static void main(String[] args) {
//1.创建消费者属性文件对象
Properties prop = new Properties();
//2.为属性对象设置相关参数
//设置kafka服务器
prop.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.16.100:9092");
//设置key和value的序列化类
prop.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
//设置消费者的消费者组的名称
prop.put(ConsumerConfig.GROUP_ID_CONFIG, "testCg");
//3.创建消费者对象
KafkaConsumer<String, String> kafkaConsumer =
new KafkaConsumer<String, String>(prop);
//4.注册要消费的主题
ArrayList<String> topics = new ArrayList<>();
topics.add("topicA");
//订阅主题
kafkaConsumer.subscribe(topics);
//5.拉取数据并打印输出
while (true) {
//6.设置1s消费一批数据
ConsumerRecords<String, String> consumerRecords =
kafkaConsumer.poll(Duration.ofSeconds(1));
//7.打印输出消费到的数据
for (ConsumerRecord consumerRecord : consumerRecords) {
System.out.println(consumerRecord);
}
}
}
}
代码示例(独立消费分区)
这个消费者需要消费topicA分区下的0号分区数据
package com.wunaiieq.consumer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.ArrayList;
import java.util.List;
import java.util.Properties;
//创建一个独立消费者,消费topicA主题0号分区中的数据
public class ConsumTopicPartitionConsumer {
public static void main(String[] args) {
//1.创建属性对象
Properties prop = new Properties();
//2.设置相关参数
prop.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.16.100:9092");
prop.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.GROUP_ID_CONFIG,"testCg2");
//3.创建消费者对象
KafkaConsumer<String,String> kafkaConsumer =
new KafkaConsumer<String, String>(prop);
//4.为消费者注册主题和分区号
List<TopicPartition> topicPartitions =
new ArrayList<>();
topicPartitions.add(new TopicPartition("topicA",0));
kafkaConsumer.assign(topicPartitions);
//5.消费数据
while(true){
ConsumerRecords<String, String> consumerRecords =
kafkaConsumer.poll(Duration.ofSeconds(1));
for(ConsumerRecord consumerRecord:consumerRecords){
System.out.println(consumerRecord);
}
}
}
}
offset
表示消费者在特定主题分区中的消费进度。
一般而言,这个offset不会主动去用,除非宕机重启等等
可以手动查看offset值和状况
修改系统配置
[root@node4 ~]# cd /opt/kafka/config/ [root@node4 config]# vim
consumer.properties exclude.internal.topics=false
查询offset
kafka-console-consumer.sh --topic __consumer_offsets --bootstrap-server node2:9092 --consumer.config config/consumer.properties --formatter “kafka.coordinator.group.GroupMetadataManager$OffsetsMessageFormatter” --from-beginning
描述和作用:
- Offset是Kafka中标识消息在分区内位置的一个唯一标识符。每个消息都有一个对应的Offset值,用于表示消息在分区中的相对位置。Offset是从0开始递增的,每当有新的消息写入分区时,Offset就会加1。Offset是不可变的,即使消息被删除或过期,Offset也不会改变或重用。
- 定位消息:通过指定Offset,消费者可以准确地找到分区中的某条消息,或者从某个位置开始消费消息。
- 记录消费进度:消费者在消费完一条消息后,需要提交Offset来告诉Kafka Broker自己消费到哪里了。这样,如果消费者发生故障或重启,它可以根据保存的Offset来恢复消费状态。
- __consumer_offsets 主题里面采用 key 和 value 的方式存储数据。key 是 group.id+topic名称+分区号,value 就是当前 offset 的值。每隔一段时间,kafka 内部会对这个 topic 进行compact,也就是每个 group.id+topic名称+分区号就保留最新数据。
自动提交
自动提交主要是根据时间设置,每隔一段时间提交
代码示例(自动提交)
设置offset自动提交,每xxx秒提交一次(默认是5秒)
package com.wunaiieq.offset;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
public class ConsumerAutoOffset {
public static void main(String[] args) {
//1.创建属性对象
Properties prop = new Properties();
//2.设置属性参数
prop.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.16.100:9092");
prop.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
//配置消费者组
prop.put(ConsumerConfig.GROUP_ID_CONFIG,"cgauto");
//是否自动提交offset: true表示自动提交,false表示非自动提交
prop.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,true);
//提交offset的时间周期1000ms,默认是5000ms
prop.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,1000);
//3.创建消费者对象
KafkaConsumer<String,String> kafkaConsumer =
new KafkaConsumer<String, String>(prop);
//4.设置消费主题
kafkaConsumer.subscribe(Arrays.asList("topicA"));
//5.消费消息
while(true){
//6.读取消息
ConsumerRecords<String, String> consumerRecords =
kafkaConsumer.poll(Duration.ofSeconds(1));
//7.循环输出消息
for(ConsumerRecord cr:consumerRecords){
System.out.println(cr.value());
}
}
}
}
手动提交
手动提交offset的方法有两种方式:
-
commitSync同步提交:必须等待offset提交完毕,再去消费下一批数据。
-
commitAsync异步提交:发送完提交offset请求后,就开始消费下一批数据了。
两者的区别:
相同点是,都会将本次消费的一批数据的最高的偏移量提交;
不同点是,同步提交阻塞当前线程,一直到提交成功,并且会自动失败重试(由不可控因素导致,也会出现提交失败);而异步提交则没有失败重试机制,故有可能提交失败。
代码示例(同步)
等待offset提交完毕,再去消费下一批数据。
package com.wunaiieq.offset;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
public class ConsumerHandSyncCommit {
public static void main(String[] args) {
//1.创建属性对象
Properties prop = new Properties();
//2.设置相关参数
prop.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.16.100:9092,192.168.16.101:9092,192.168.16.102:9092");
prop.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
//配置消费者组
prop.put(ConsumerConfig.GROUP_ID_CONFIG,"cghandSyncCommit");
//设置为非自动提交
prop.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,false);
//3.创建消费者对象
KafkaConsumer<String,String> consumer=
new KafkaConsumer<String, String>(prop);
//4.注册消费主题
consumer.subscribe(Arrays.asList("topicA"));
//5.消费数据
while(true){
ConsumerRecords<String, String> records =
consumer.poll(Duration.ofSeconds(1));
for(ConsumerRecord record:records){
System.out.println(record.value());
}
//6.同步提交offset
consumer.commitSync();
}
}
}
代码示例(异步)
代码上的区别很小,提交方式由consumer.commitSync();改为consumer.commitAsync();
package com.wunaiieq.offset;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.StringDeserializer;
import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
public class ConsumerHandASyncCommit {
public static void main(String[] args) {
//1.创建属性对象
Properties prop = new Properties();
//2.设置相关参数
prop.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
"192.168.16.100:9092,192.168.16.101:9092,192.168.16.102:9092");
prop.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
prop.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
StringDeserializer.class.getName());
//配置消费者组
prop.put(ConsumerConfig.GROUP_ID_CONFIG,"cghandAsyncCommit");
//设置为非自动提交
prop.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,false);
//3.创建消费者对象
KafkaConsumer<String,String> consumer=
new KafkaConsumer<String, String>(prop);
//4.注册消费主题
consumer.subscribe(Arrays.asList("topicA"));
//5.消费数据
while(true){
ConsumerRecords<String, String> records =
consumer.poll(Duration.ofSeconds(1));
for(ConsumerRecord record:records){
System.out.println(record.value());
}
//6.异步提交offset
consumer.commitAsync();
}
}
}
其他说明
- 一个消费者允许消费多个主题