hadoop - 我想在pentaho工作

标签 hadoop pentaho

我想建立一个pentaho作业,其中有一个hadoop查询,我需要通过该查询来拉取数据,然后将该数据加载到csv文件中。然后我需要将该文件发布到FTP服务器。有人可以帮助我吗我需要从pentaho使用的步骤?

最佳答案

对于使用hadoop和pdi,Pentaho Mapreduce步骤从hdfs文件中读取数据,然后使用Mapreduce输入来处理数据。您可以检查此blog了解更多信息。

接下来,您需要在pentaho作业中使用“Put a file with SFTP”步骤将文件最终放置到您各自的路径中。

希望这可以帮助 :)

关于hadoop - 我想在pentaho工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32714419/

相关文章:

hadoop - 在 AMI 3.0.1 上运行弹性 mapreduce 流

mongodb - 限制号mongodb 输入中的行数

java - 通过API创建Pentaho元数据域: Exception 'Properties ... not initialised!'

r - 将 hive 连接到R时出现java.lang.classnotfoundexception错误

python - 使用 yarn 比较器在 MapReduce Python 中进行字数统计排序

hadoop - outputcollector如何工作?

java - 避免在 Hadoop pig 中使用指数表示法

java - Pentaho - 使用 XUL 定义时出错

Pentaho水壶: how to pass variable from transformation to another transformation inside job

java - 集成 Pentaho/Talend/等使用 OR 映射器