将JSON文件更改从Azure BLOB存储摄取到Logstash的最常见方法是什么?

fhity93d  于 5个月前  发布在  Logstash
关注(0)|答案(1)|浏览(88)

我需要集成Logstash数据摄取,以包含存储在Azure BLOB存储容器中的JSON文件。这些JSON文件不断被追加,Logstash预计会“跟踪”这些文件,并将每个新添加的记录处理到Elasticsearch。由于这些文件是本地的,我们确实有一个工作的Logstash输入实现:

input {
  file {
    path => "/logs/json/*"
    start_position => "beginning"
    # remove this for not always starting from the beginning of the file
    sincedb_path => "/dev/null"
    codec => "json"
    type => "json"
    mode => "tail"
  }
}

字符串
由于文件存储在Azure BLOB存储容器中,因此此输入显然无法工作。

input { 
    azure_blob_storage {


但是这些不再支持/通常可用。
从Azure BLOB存储中获取持续添加的记录并将其放入Logstash的最常见/可支持的方法是什么?

iq3niunx

iq3niunx1#

您可以测试Azure Event Hubs插件
这是官方的doc,你可以找到解释Blob存储连接的部分。
也可以使用filebeat并使用此插件filebeat-input-azure-blob-storage
检查此doc

相关问题