更新hdfs中的数据时发生flume获取错误

cedebl8k  于 2021-06-04  发布在  Flume
关注(0)|答案(1)|浏览(215)

我需要在单独的机器上运行flume,它不是hdfs数据节点或名称节点的一部分,它必须从kafka读取数据并将其存储在单独集群中运行的hdfs中。能做到吗?我收到了与hadoopjar文件相关的错误。

ygya80vv

ygya80vv1#

ApacheFlume需要HadoopJARsforHDFSsink,因为您正在从kafka读取数据并存储回hdfs。
请在类路径中添加所有与hadoop相关的jar,然后重新运行它。

相关问题