Java分佈式學習之Kafka消息隊列
介紹
Apache Kafka 是分佈式發佈-訂閱消息系統,在 kafka官網上對 kafka 的定義:一個分佈式發佈-訂閱消息傳遞系統。 它最初由LinkedIn公司開發,Linkedin於2010年貢獻給瞭Apache基金會並成為頂級開源項目。Kafka是一種快速、可擴展的、設計內在就是分佈式的,分區的和可復制的提交日志服務。
註意:Kafka並沒有遵循JMS規范(),它隻提供瞭發佈和訂閱通訊方式。
kafka中文官網:http://kafka.apachecn.org/quickstart.html
Kafka核心相關名稱
- Broker:Kafka節點,一個Kafka節點就是一個broker,多個broker可以組成一個Kafka集群
- Topic:一類消息,消息存放的目錄即主題,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能夠同時負責多個topic的分發
- massage: Kafka中最基本的傳遞對象。
- Partition:topic物理上的分組,一個topic可以分為多個partition,每個partition是一個有序的隊列。Kafka裡面實現分區,一個broker就是表示一個區域。
- Segment:partition物理上由多個segment組成,每個Segment存著message信息
- Producer : 生產者,生產message發送到topic
- Consumer : 消費者,訂閱topic並消費message, consumer作為一個線程來消費
- Consumer Group:消費者組,一個Consumer Group包含多個consumer
- Offset:偏移量,理解為消息 partition 中消息的索引位置
主題和隊列的區別:
隊列是一個數據結構,遵循先進先出原則
kafka集群安裝
參考官方文檔:https://kafka.apachecn.org/quickstart.html
- 每臺服務器上安裝jdk1.8環境
- 安裝Zookeeper集群環境
- 安裝kafka集群環境
- 運行環境測試
安裝jdk環境和zookeeper這裡不詳述瞭。
kafka為什麼依賴於zookeeper:kafka會將mq信息存放到zookeeper上,為瞭使整個集群能夠方便擴展,采用zookeeper的事件通知相互感知。
kafka集群安裝步驟:
1、下載kafka的壓縮包,下載地址:https://kafka.apachecn.org/downloads.html
2、解壓安裝包
tar -zxvf kafka_2.11-1.0.0.tgz
3、修改kafka的配置文件 config/server.properties
配置文件修改內容:
- zookeeper連接地址:
zookeeper.connect=192.168.1.19:2181
- 監聽的ip,修改為本機的ip
listeners=PLAINTEXT://192.168.1.19:9092
- kafka的brokerid,每臺broker的id都不一樣
broker.id=0
4、依次啟動kafka
./kafka-server-start.sh -daemon config/server.properties
kafka使用
kafka文件存儲
topic是邏輯上的概念,而partition是物理上的概念,每個partition對應於一個log文件,該log文件中存儲的就是Producer生成的數據。Producer生成的數據會被不斷追加到該log文件末端,為防止log文件過大導致數據定位效率低下,Kafka采取瞭分片和索引機制,將每個partition分為多個segment,每個segment包括:“.index”文件、“.log”文件和.timeindex等文件。這些文件位於一個文件夾下,該文件夾的命名規則為:topic名稱+分區序號。
例如:執行命令新建一個主題,分三個區存放放在三個broker中:
./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic kaico
- 一個partition分為多個segment
- .log 日志文件
- .index 偏移量索引文件
- .timeindex 時間戳索引文件
- 其他文件(partition.metadata,leader-epoch-checkpoint)
Springboot整合kafka
maven依賴
<dependencies> <!-- springBoot集成kafka --> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> <!-- SpringBoot整合Web組件 --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> </dependencies>
yml配置
# kafka spring: kafka: # kafka服務器地址(可以多個) # bootstrap-servers: 192.168.212.164:9092,192.168.212.167:9092,192.168.212.168:9092 bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094 consumer: # 指定一個默認的組名 group-id: kafkaGroup1 # earliest:當各分區下有已提交的offset時,從提交的offset開始消費;無提交的offset時,從頭開始消費 # latest:當各分區下有已提交的offset時,從提交的offset開始消費;無提交的offset時,消費新產生的該分區下的數據 # none:topic各分區都存在已提交的offset時,從offset後開始消費;隻要有一個分區不存在已提交的offset,則拋出異常 auto-offset-reset: earliest # key/value的反序列化 key-deserializer: org.apache.kafka.common.serialization.StringDeserializer value-deserializer: org.apache.kafka.common.serialization.StringDeserializer producer: # key/value的序列化 key-serializer: org.apache.kafka.common.serialization.StringSerializer value-serializer: org.apache.kafka.common.serialization.StringSerializer # 批量抓取 batch-size: 65536 # 緩存容量 buffer-memory: 524288 # 服務器地址 bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094
生產者
@RestController public class KafkaController { /** * 註入kafkaTemplate */ @Autowired private KafkaTemplate<String, String> kafkaTemplate; /** * 發送消息的方法 * * @param key * 推送數據的key * @param data * 推送數據的data */ private void send(String key, String data) { // topic 名稱 key data 消息數據 kafkaTemplate.send("kaico", key, data); } // test 主題 1 my_test 3 @RequestMapping("/kafka") public String testKafka() { int iMax = 6; for (int i = 1; i < iMax; i++) { send("key" + i, "data" + i); } return "success"; } }
消費者
@Component public class TopicKaicoConsumer { /** * 消費者使用日志打印消息 */ @KafkaListener(topics = "kaico") //監聽的主題 public void receive(ConsumerRecord<?, ?> consumer) { System.out.println("topic名稱:" + consumer.topic() + ",key:" + consumer.key() + "," + "分區位置:" + consumer.partition() + ", 下標" + consumer.offset()); //輸出key對應的value的值 System.out.println(consumer.value()); } }
到此這篇關於Java分佈式學習之Kafka消息隊列的文章就介紹到這瞭,更多相關Java Kafka內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- SpringBoot集成Kafka的步驟
- 分佈式消息隊列RocketMQ概念詳解
- SpringBoot集成kafka全面實戰記錄
- 一文秒懂 kafka HA(高可用)
- java自己手動控制kafka的offset操作