将Azure日志分析工作区与Kafka集成:蔚蓝LA ->Kafka

cs7cruho  于 2023-01-05  发布在  Kafka
关注(0)|答案(1)|浏览(118)

我在Azure中有一个集中的日志分析工作区,以及一个将集中工作区中的所有日志分析数据流式传输(或以其他方式摄取)到Kafka"数据 Backbone "的用例。
我的问题是:
对于此特定使用情形,是否有推荐的模式?
我做了一些研究,但没有发现任何开箱即用的Kafka连接器或集成模式,用于将Azure日志分析数据直接批发到Kafka中。
(我怀疑这是一个罕见的用例)

c90pui9n

c90pui9n1#

建议的集成模式(来自Microsoft)似乎是通过Azure数据导出到Azure存储帐户:

Data export in a Log Analytics workspace lets you continuously export data per selected tables in your workspace. You can export to an Azure Storage account or Azure Event Hubs as the data arrives to an Azure Monitor pipeline. This article provides details on this feature and steps to configure data export in your workspaces.

https://learn.microsoft.com/en-us/azure/azure-monitor/logs/logs-data-export?tabs=portal
(轶事:看起来这个解决方案对一些企业客户来说是可以接受的)

相关问题