scala - 实例化 'org.apache.spark.sql.hive.HiveSessionState'时出错:在Linux服务器上

标签 scala hadoop apache-spark hive

我有一个Scala Spark应用程序,正在尝试使用Shell脚本在Linux服务器上运行。我收到错误消息:

Exception in thread "main" java.lang.IllegalArgumentException: Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState':



但是,我不明白哪里出了问题。我这样做是为了实例化Spark:
val sparkConf = new SparkConf().setAppName("HDFStoES").setMaster("local")

      val spark: SparkSession = SparkSession.builder.enableHiveSupport().config(sparkConf).getOrCreate()

我是否正确执行此操作,如果是这样,可能是什么错误?

最佳答案

sparkSession = SparkSession.builder().appName("Test App").master("local[*])
                .config("hive.metastore.warehouse.dir", hiveWareHouseDir)
                .config("spark.sql.warehouse.dir", hiveWareHouseDir).enableHiveSupport().getOrCreate();

在以上使用中,您需要指定"hive.metastore.warehouse.dir"目录以在spark session 中启用配置单元支持。

关于scala - 实例化 'org.apache.spark.sql.hive.HiveSessionState'时出错:在Linux服务器上,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47256676/

相关文章:

json - Spray-json反序列化嵌套对象

xml - Hadoop中异构文档XML的处理

python - 使用窗口函数时出现 pyspark 错误(Spark 2.1.0 报告未找到列的问题)?

python - Spark 由 : java. lang.StackOverflowError 窗口函数引起?

scala - 结构化流 - Foreach Sink

scala - 如何使用RDD计算文本文件中每行的字数?

hadoop - 我应该在cloudera,MapR和Hortonworks中选择哪个Hadoop发行版?

apache-spark - 如何将流式数据集写入 Hive?

python - 理论上,对于 Apache Spark,Scala 比 Python 更快。实际上并非如此。这是怎么回事?

hadoop - Hadoop Fairschduler并未利用所有 map 插槽