我想建立一个pentaho作业,其中有一个hadoop查询,通过它我需要拉取数据,然后加载到一个csv文件中的数据。然后我需要将该文件发布到一个ftp服务器。谁能帮我的步骤,我需要使用pentaho?
deyfvvtc1#
为了使用hadoop和pdi,pentaho-mapreduce将从hdfs文件中读取数据,然后使用mapreduce输入来处理数据。你可以查看这个博客了解更多。接下来,您需要在pentaho job中使用“用sftp放置文件”步骤,最终将文件放置到各自的路径。希望这有帮助:)
1条答案
按热度按时间deyfvvtc1#
为了使用hadoop和pdi,pentaho-mapreduce将从hdfs文件中读取数据,然后使用mapreduce输入来处理数据。你可以查看这个博客了解更多。
接下来,您需要在pentaho job中使用“用sftp放置文件”步骤,最终将文件放置到各自的路径。
希望这有帮助:)