logstash 使用ELK实现Kafka

23c0lvtd  于 5个月前  发布在  Logstash
关注(0)|答案(1)|浏览(81)

我目前正在使用:

  • filebeat 8.1.3(安装在Windows上),
  • Elasticsearch版本7.17.1
  • logstash 8.1.3
  • Kafka elk、Kafka在1台服务器上

关于架构,我首先在Windows上安装了filebeat,从那里获取日志。然后我想用它将日志输出到Kafka,然后从Kafka到logstash。最后从logstash到elasticsearch。就像下面的图片一样
Screenshot_3
然而,我在Kibana上看不到来自Kafka/logstash(来自Windows filebeat)的日志。我在Windows上的filebeat配置(filebeat.yml):

  • 类型:日志路径:
  • “E:/QwikCilver/Applogs/AppLog/zeus/zeus.log”ignore_older:5m scan_frequency:1m close_inactive:10s close_removed:true clean_removed:true close_renamed:true multiline.type:pattern multiline.pattern:'^[0 -9]{4}-[0 - 9]{2}-[0-9]{2}' multiline.negate:true multiline.match:after tags:[“Perf”,“zeus.log”]

output.kafka:主持人:[“internal-a6a50c1cf23db4fa582d77b7a28d2fc9-485248067.ap-south-1.elb.amazonaws.com:9092”]启用:true主题:“my_topic”分区。round_robin:reachable_only:false
required_acks:1 compression:gzip max_message_bytes:1000000
My logstash config:

input {
  kafka {
    bootstrap_servers => "kafka-broker.kafka.svc.cluster.local:9092"
    topics => ["my_topic"]
    codec => json
  }
}
filter {
 }
output {
  elasticsearch {
        index => "others-%{+YYYY.MM.dd}"
        hosts => ["elasticsearch:9200"]
        user => elastic
        password => *********
        }
}

字符串
我不知道我应该怎么做,是不是Windows上的主题设置有问题?或者我应该怎么做才能通过Kafka和logstash从Windows上的filebeat获取日志到Elasticsearch?
我对这个Kafka设置还不熟悉。Kafka已经使用https://github.com/meniem/kafka-helm/tree/main设置
尝试进入Kafka容器并能够创建和发送主题并获取kibana上的数据。

b5lpy0ml

b5lpy0ml1#

首先,您应该使用Elasticsearch 8.x与相同版本的Filebeat / Logstash。
其次,Kafka和Logstash都是必要的,因为Filebeat可以直接输出到Elasticsearch。
或者Filebeat can send TCP events到Logstash,也没有Kafka。
Kafka是用.
1.这个repo没有维护。
1.您将Filebeat指向某个AWS服务器,该服务器与您的Logstash引导服务器不匹配
或者,Kafka Connect也可以读取文件并写入Elasticsearch,所以如果你确实想使用Kafka,你不需要Filebeat或Logstash。

相关问题