缺一套kafka的环境,闲来无事,搭一个吧,顺便踩踩坑。
话不多说,开干。
官网:kafka.apache.org/downloads
目前最新是3.2版本,也是稳定版,scala的版本可选2.12和2.13。推荐2.13,不太重要。
下载,搞到服务器上。如下:
解压,改名,同时建一个文件夹存放数据。简单修改一下配置,不搞那么复杂。
vi config/server.properties
主要修改数据存放目录,listener地址。
## 内网地址
listeners=PLAINTEXT://13:9092
## 公网地址
advertised.listeners=PLAINTEXT://3.13:9092
## 上面算是个坑,不过在本地安装就不需要管了,默认就行。
log.dirs=/data/opt/kafka/logs
接下来启动就好了,这台服务器已经装好了zk,就不用kafka自带的了,如果没有,需要先启动zk。
bin/zookeeper-server-start.sh config/zookeeper.properties
再启动kafka
bin/kafka-server-start.sh config/server.properties
nohup bin/kafka-server-start.sh config/server.properties & ## 后台
jps 看一下是否启动成功
建个topic玩一下,
bin/kafka-topics.sh --create --topic quickstart-events --bootstrap-server 127.0.0.1:9092
## 注意最后的IP地址,要和listener配置的一样。
打开生产者,我们可以在这发消息,然后再消费者查看是否能收到。
bin/kafka-console-producer.sh --topic quickstart-events --bootstrap-server 127.0.0.1:9092
打开消费者,新开一个终端。
bin/kafka-console-consumer.sh --topic quickstart-events --from-beginning --bootstrap-server 192.168.31.96:9092
ok,收到消息了,么得问题。
随便找个以前的工程,加入pom。偷个懒。
org.springframework.kafka
spring-kafka
2.5.0.RELEASE
配置kafka server地址:
spring:
kafka:
bootstrap-servers: 101.43.138.173:9092
producer:
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
listener:
ack-mode: manual_immediate
missing-topics-fatal: false
搞个controller测试一下
import lombok.extern.slf4j.Slf4j;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.SendResult;
import org.springframework.util.concurrent.ListenableFuture;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
import java.util.concurrent.ExecutionException;
@RestController
@RequestMapping("/kafka")
@Slf4j
public class KafkaController {
private final KafkaTemplate kafkaTemplate;
public KafkaController(KafkaTemplate kafkaTemplate) {
this.kafkaTemplate = kafkaTemplate;
}
@GetMapping("/send")
public void send(@RequestParam(defaultValue = "hi")String msg) throws ExecutionException, InterruptedException {
ListenableFuture> listenableFuture = kafkaTemplate.send("quickstart-events", msg);
String res = listenableFuture.get().toString();
log.info("producer send result:[{}]",res);
}
}
测试一下
producer send result:[SendResult [producerRecord=ProducerRecord(topic=quickstart-events, partition=null, headers=RecordHeaders(headers = [RecordHeader(key = b3, value = [97, 57, 51, 56, 50, 99, 54, 102, 102, 101, 48, 54, 99, 100, 55, 57, 45, 57, 52, 52, 57, 100, 51, 100, 48, 99, 49, 49, 49, 56, 51, 54, 49, 45, 49])], isReadOnly = true), key=null, value=hi, timestamp=null), recordMetadata=quickstart-events-0@6]]
看看消费者终端也收到了,么得问题,搞定。
留言与评论(共有 0 条评论) “” |