java - 创建 spark 客户端失败 : Hive on spark exception

标签 java hadoop apache-spark

我已将 Hive 执行引擎更改为 SPARK。在执行任何 DML/DDL 时,我都会遇到异常。

hive> select count(*) from tablename;
Query ID = jibi_john_20160602153012_6ec1da36-dcb3-4f2f-a855-3b68be118b36
Total jobs = 1
Launching Job 1 out of 1
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
set mapreduce.job.reduces=<number>
**Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
**FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask****
 

最佳答案

一个可能的原因是您在 YARN 分配 ApplicationMaster 之前达到超时值。您可以通过设置 hive.spark.client.server.connect.timeout 来延长此超时值

默认值为90000ms。

关于java - 创建 spark 客户端失败 : Hive on spark exception,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37589062/

相关文章:

java - 我可以在执行之前使用 AspectJ 切入点修改执行的 SQL

java - 整数数组列表到字符串的转换

hadoop - Hadoop,Hive->获取针对集群运行的SQL列表

scala - Spark BigQuery 连接器 : Writing ARRAY type causes exception: ""Invalid value for: ARRAY is not a valid value""

apache-spark - 如何在 Python 中排除 Spark 数据框中的多列

java - 在 Spring MVC、CrudRepository、Thymeleaf 中搜索(通过文本字段和按钮)

apache - OOZIE成功运行MR作业,但从未收到状态更新

hadoop - 运行 MRUnit 时出现 java.lang.NoSuchMethodError : org. apache.hadoop.mapreduce.TaskAttemptID

java - 为什么 Spark 在本地模式下失败并显示 "Failed to get broadcast_0_piece0 of broadcast_0"?

java - 正则表达式中的重复模式