我想建立一个pentaho作业,其中有一个hadoop查询,我需要通过该查询来拉取数据,然后将该数据加载到csv文件中。然后我需要将该文件发布到FTP服务器。有人可以帮助我吗我需要从pentaho使用的步骤?
最佳答案
对于使用hadoop和pdi,Pentaho Mapreduce步骤从hdfs文件中读取数据,然后使用Mapreduce输入来处理数据。您可以检查此blog了解更多信息。
接下来,您需要在pentaho作业中使用“Put a file with SFTP”步骤将文件最终放置到您各自的路径中。
希望这可以帮助 :)
关于hadoop - 我想在pentaho工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32714419/