通常,我們寫一段flink stream api代碼類型如下: 熟悉flink的人都知道,最后這行代碼env.execute(topics);實...
上一章節(jié)我們在org.apache.kafka.clients.producer.internals.RecordAccumulator#app...
上一章節(jié)我們重點分析了獲取消息的分區(qū)號,這樣我們才知道消息到底要發(fā)送到哪個broker上,對吧,同時我們看到后面把消息封裝到一個TopicPar...
上一章節(jié)我們詳細 分析了Kafka在發(fā)送消息的時候,是如何拉取元數(shù)據(jù)的,正如我們源碼里doSend()里waitOnMetadata介紹的: 接...
上一節(jié)我們詳細解析了生產(chǎn)端在發(fā)消息的dosend()里,首先是拉取元數(shù)據(jù)信息,在拉取過程中,先喚醒了sender線程,接著主線程進入等待狀態(tài),直...
上一節(jié)我們詳細解析了生產(chǎn)端拉取元數(shù)據(jù)的數(shù)據(jù)結(jié)構(gòu),其實也可以看出來,無非就是topic ,partition,node之間的對應(yīng)關(guān)系,同時我們在第...
前面我們講到,在KafkaProducer初始化時,初始化了一個非常核心的組件Metadata 這個組件前面也詳細說明過,是去broker上 ...
上一節(jié)我們講到了在KafkaProducer初始化的時候,初始化了三個組件: 分區(qū)器Partitioner 序列化器Serializer 攔截器...
當(dāng)我們學(xué)習(xí)Kafka時,通常寫kafka producer api如下面簡單的代碼: 從上面的API可以看到其中一個非常重要的對象: Kafka...