java - Hadoop MultipleOutputs.addNamedOutput 抛出 "cannot find symbol"

标签 java hadoop mapreduce

我正在使用 Hadoop 0.20.203.0。我想输出到两个不同的文件,所以我试图让 MultipleOutputs 工作。

这是我的配置方法:

public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();

String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
if (otherArgs.length != 2) {
  System.err.println("Usage: indycascade <in> <out>");
  System.exit(2);
}
Job job = new Job(conf, "indy cascade");
job.setJarByClass(IndyCascade.class);
job.setMapperClass(ICMapper.class);
job.setCombinerClass(ICReducer.class);
job.setReducerClass(ICReducer.class);

TextInputFormat.addInputPath(job, new Path(otherArgs[0]));
TextOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

MultipleOutputs.addNamedOutput(conf, "sql", TextOutputFormat.class, LongWritable.class, Text.class);

job.waitForCompletion(true);
System.exit(job.waitForCompletion(true) ? 0 : 1);
}

但是,这不会编译。有问题的行是 MultipleOutputs.addNamedOutput(...),它会引发“找不到符号”错误。

isaac/me/saac/i/IndyCascade.java:94: cannot find symbol
symbol  : method addNamedOutput(org.apache.hadoop.conf.Configuration,java.lang.String,java.lang.Class<org.apa che.hadoop.mapreduce.lib.output.TextOutputFormat>,java.lang.Class<org.apache.hadoop.io.LongWritable>,java.lang.Class<org.apache.hadoop.io.Text>)
location: class org.apache.hadoop.mapred.lib.MultipleOutputs
    MultipleOutputs.addNamedOutput(conf, "sql", TextOutputFormat.class, LongWritable.class, Text.class);

当然,我尝试按照 API 的要求使用 JobConf 而不是 Configuration,但这会导致同样的错误。此外,JobConf 已弃用。

如何让 MultipleOutputs 工作?这甚至是正确的类吗?

最佳答案

您正在混合使用新旧 API 类型:

您正在使用旧 API org.apache.hadoop.mapred.lib.MultipleOutputs:

location: class org.apache.hadoop.mapred.lib.MultipleOutputs

使用新的 API org.apache.hadoop.mapreduce.lib.output.TextOutputFormat:

symbol  : method addNamedOutput(org.apache.hadoop.conf.Configuration,java.lang.String,java.lang.Class<org.apa che.hadoop.mapreduce.lib.output.TextOutputFormat>,java.lang.Class<org.apache.hadoop.io.LongWritable>,java.lang.Class<org.apache.hadoop.io.Text>)

使 API 一致,你应该没问题

编辑: 事实上 0.20.203 没有用于新 API 的 MultipleOutputs 端口,因此您必须使用旧的 api,在线查找新的 API 端口 Cloudera- 0.20.2+320 ), 或者自己移植

此外,您应该查看 ToolRunner 类来执行您的作业,它将消除显式调用 GenericOptionsParser 的需要:

public static class Driver extends Configured implements Tool {
  public static void main(String[] args) throws Exception {
    System.exit(ToolRunner.run(new Driver(), args));
  }

  public int run(String args[]) {
    if (args.length != 2) {
      System.err.println("Usage: indycascade <in> <out>");
      System.exit(2);
    }

    Job job = new Job(getConf());
    Configuration conf = job.getConfiguration();

    // insert other job set up here

    return job.waitForCompletion(true) ? 0 : 1;
  }
}

最后一点 - 在您创建 Job 实例之后对 conf 的任何引用都将是原始的 conf。 Job 对 conf 对象进行了深度复制,因此调用 MultipleOutputs.addNamedoutput(conf, ...) 不会产生预期的效果,请使用 MultipleOutputs.addNamedoutput(job.getConfiguration(), ...) 代替。请参阅我上面的示例代码以了解执行此操作的正确方法

关于java - Hadoop MultipleOutputs.addNamedOutput 抛出 "cannot find symbol",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9876456/

相关文章:

hadoop - Hadoop MapReduce 何时运行组合器的权威来源

java - 运行 jar 时出现 HADOOP_CLASSPATH 问题

java - Hadoop:作业显示在作业浏览器中,但无法通过 api 访问 JobStatus

java - Java 中字母的值

java - 在 java 中解析 rss 提要时遇到 java.io.FileNotFoundException

hadoop - JobTracker源代码修改

hadoop - SUM 函数上的 Pig 错误

java - 编码映射到 <key>value</key> 失败

java - 无法使用 Runnable

java - Hadoop Map任务:读取指定输入文件的内容