hadoop - Hadoop和PiggyBank不兼容

标签 hadoop apache-pig

我正在尝试使用org.apache.pig.piggybank.storage.MultiStorage存档中的piggybank.jar。我按照here的说明下载了pig trunk并构建了ggybank.jar。但是,当我使用MultiStorage类时,出现以下错误。
Found interface org.apache.hadoop.mapreduce.TaskAttemptContext, but class was expected
通过查看here,似乎在存钱 jar 构建和hadoop版本之间存在版本不兼容。但我无法解决此问题。我对此非常感谢(为此已经花费了过多的时间)。

pig.hadoop.version:2.0.0-cdh4.1.0

> hadoop version

Hadoop 2.0.0-cdh4.1.0 Subversion file:///data/1/jenkins/workspace/generic-package-ubuntu64-10-04/CDH4.1.0-Packaging-Hadoop-2012-09-29_10-56-25/hadoop-2.0.0+541-1.cdh4.1.0.p0.27~lucid/src/hadoop-common-project/hadoop-common -r 5c0a0bddbc2aaff30a8624b5980cd4a2e1b68d18 Compiled by jenkins on Sat Sep 29 11:26:31 PDT 2012 From source with checksum 95f5c7f30b4030f1f327758e7b2bd61f

最佳答案

尽管我不知道如何构建兼容的ggybank.jar,但是我发现兼容的piggybank.jar位于/usr/lib/pig/下。

关于hadoop - Hadoop和PiggyBank不兼容,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14617204/

相关文章:

java - 几秒钟后HBase崩溃

hadoop - 长时间服用 pig 的DUMP

hadoop - Apache Pig 可以从 STDIN 而不是文件加载数据吗?

hadoop - 使用 Pig 在 HBase 中为列族添加可变数量的列

java - 将多个参数传递给 Pig Filter UDF

hadoop - 如何以破坏Flume中的目录路径的方式访问远程主机中的文件夹

hadoop - 尝试打开 Hadoop 时,我在 Google Cloud 终端中不断收到 "Permission Denied"

hadoop - 如何用 pig latin 压平和减去列

java - Nutch Crawl 错误 - 输入路径不存在

hadoop - 如何使用 pig 剥离字符串并提取字符串的数字部分