hadoop - 失败 : Execution Error, 从 org.apache.hadoop.hive.ql.exec.spark.SparkTask 返回代码 2

标签 hadoop apache-spark hive hiveql

我在跑

  • apache-hive-1.2.1-bin
  • hadoop-2.7.1
  • spark-1.5.1-bin-hadoop2.6

我能够在 Spark 上配置配置单元,但是当我尝试执行查询时,它会给我以下错误消息。

hive> SELECT COUNT(*) AS rcount, yom From service GROUP BY yom;
Query ID = hduser_20160110105649_4c90528a-76ba-4127-8849-54f2152be817
Total jobs = 1
Launching Job 1 out of 1
In order to change the average load for a reducer (in bytes):
  set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
  set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
  set mapreduce.job.reduces=<number>
Starting Spark Job = b9cbbd47-f41f-48b5-98c3-efcaa145390e
Status: SENT
FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.spark.SparkTask

我该如何解决这个问题?

最佳答案

我有同样的问题,但是我没有配置 yarn 因为一些作业正在运行。我不确定这是问题的解决方案。

yarn.resourcemanager.scheduler.class=org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler

你有没有像文档说的那样配置yarn?

关于hadoop - 失败 : Execution Error, 从 org.apache.hadoop.hive.ql.exec.spark.SparkTask 返回代码 2,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34707565/

相关文章:

maven - Hadoop核心的Maven Central与Cloudera存储库

scala - 在单元测试中模拟 Spark RDD

python - Spark-nlp 预训练模型未在 Windows 中加载

hadoop - 为什么从 Teradata 迁移到 Hadoop

hadoop - 无法查询(从 Hive)在 ​​Pig 中创建的 Parquet 文件

hadoop - Flume - 整个文件可以被视为 Flume 中的事件吗?

scala - inferSchema=true 不适用于读取 csv 文件 n Spark Structured Streaming

hadoop - 错误 : java. lang.RuntimeException : org. apache.hadoop.hive.ql.metadata.HiveException:处理可写时 Hive 运行时错误

python - Hive UDF with Python - 在 shell 上打印异常

hadoop - 获取 E0902 : Exception occured: [User: oozie is not allowed to impersonate oozie]