hadoop - 乔布斯 Spark 失败

标签 hadoop apache-spark hadoop-yarn

当我想在 R 上启动一个 spark 作业时,我得到了这个错误:

Erreur : java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext.
This stopped SparkContext was created at:
org.apache.spark.SparkContext.<init>(SparkContext.scala:82) ....

在 spark 日志 (/opt/mapr/spark/spark-version/logs) 中我发现了很多异常:

ERROR FsHistoryProvider: Exception encountered when attempting to load application log maprfs:///apps/spark/.60135a9b-ec7c-4f71-8f92-4d4d2fbb1e2b
java.io.FileNotFoundException: File maprfs:///apps/spark/.60135a9b-ec7c-4f71-8f92-4d4d2fbb1e2b does not exist.

知道如何解决这个问题吗?

最佳答案

您需要创建 sparkContext(如果存在则获取)

import org.apache.spark.{SparkConf, SparkContext}

// 1. Create Spark configuration
val conf = new SparkConf()
  .setAppName("SparkMe Application")
  .setMaster("local[*]")  // local mode

// 2. Create Spark context
val sc = new SparkContext(conf)

SparkContext.getOrCreate()

关于hadoop - 乔布斯 Spark 失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45836146/

相关文章:

hadoop - 如何为 'hadoop-ec2' 正确配置 Amazon EC2 AMI?

apache-spark - DataProc集群Spark作业提交无法启动NodeManager

amazon-web-services - 提升 spark.yarn.executor.memoryOverhead

hadoop - 在后续 Action 中获取 YARN Action 应用 ID

java - Hadoop 从映射器写入新文件

java - 无法使用Java程序读取HDFS:找不到或加载主类

memory - Hadoop复制无法正常工作

java - Spark Streaming Kafka 消息未被消费

apache - 控制 HDFS 复制、映射器数量和 reducer 识别

hadoop - 在 yarn 集群上设置 spark 时需要哪些守护进程?