package com.test.kafkaMessage;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;
public class SendOrderMessageTest {
public KafkaProducer<String, String> producer;
public final static String TOPIC = "strategy_pm_in";
private SendOrderMessageTest() {
Properties props = new Properties();
props.put("bootstrap.servers", "10.100.11.201:9092,10.100.11.202:9092,10.100.11.203:9092");//xxx服務(wù)器ip
props.put("acks", "all");//所有follower都響應(yīng)了才認(rèn)為消息提交成功,即"committed"
props.put("retries", 0);//retries = MAX 無限重試,直到你意識(shí)到出現(xiàn)了問題:)
props.put("batch.size", 16384);//producer將試圖批處理消息記錄,以減少請(qǐng)求次數(shù).默認(rèn)的批量處理消息字節(jié)數(shù)
//batch.size當(dāng)批量的數(shù)據(jù)大小達(dá)到設(shè)定值后,就會(huì)立即發(fā)送,不顧下面的linger.ms
props.put("linger.ms", 1);//延遲1ms發(fā)送,這項(xiàng)設(shè)置將通過增加小的延遲來完成--即,不是立即發(fā)送一條記錄,producer將會(huì)等待給定的延遲時(shí)間以允許其他消息記錄發(fā)送,這些消息記錄可以批量處理
props.put("buffer.memory", 33554432);//producer可以用來緩存數(shù)據(jù)的內(nèi)存大小。
props.put("key.serializer",
"org.apache.kafka.common.serialization.IntegerSerializer");
props.put("value.serializer",
"org.apache.kafka.common.serialization.StringSerializer");
producer = new KafkaProducer<String, String>(props);
}
public void sendKafkaMessageString() throws InterruptedException {
int messageNo = 1;
final int COUNT = 2;
while(messageNo < COUNT) {
String key = String.valueOf(messageNo);
//String data = String.format("hello KafkaProducer message %s from hubo 06291018 ", key);
String data = String.format("best test zzz |kk");
Thread.sleep(1); //1000代表1秒
System.out.println(messageNo);
try {
producer.send(new ProducerRecord<String, String>(TOPIC, data));
} catch (Exception e) {
e.printStackTrace();
}
messageNo++;
}
producer.close();
}
public static void main(String[] args) throws InterruptedException {
new SendStopOrderMessageTest().sendKafkaMessageString();
}
}
發(fā)送kafka消息
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
相關(guān)閱讀更多精彩內(nèi)容
- 步驟 logback的AppenderBase和UnsynchronizedAppenderBase 先來段log...
- 上文提到在使用canal同步數(shù)據(jù)庫數(shù)據(jù)時(shí),發(fā)現(xiàn)kafka報(bào)消息體過大的錯(cuò),當(dāng)時(shí)只是調(diào)大了kafka的max.me...
- Kafka消息發(fā)送 1. 構(gòu)建ProducerRecord對(duì)象 該類如下: 這里有5個(gè)構(gòu)造方法,但是最后用的就是其...
- 提示示例: ERROR Error when sending message to topic test with...
- 一、背景 在上一篇文章[http://www.itdecent.cn/p/ae5553f67fac]中,我們使用...