apache-spark - Spark Context 不会在 Scala Spark Shell 中自动创建

标签 apache-spark

我在 Spark 书中读到:

驱动程序通过 SparkContext 对象访问 Spark,该对象代表一个 连接到计算集群。在 shell 中,会自动为您创建一个 SparkContext 作为名为 sc 的变量。尝试打印 sc 以查看其类型

sc

当我输入 sc 时,它给出错误 20 value sc not found。知道为什么 sc 没有在我的 scala Spark shell 中自动创建吗?

我尝试手动创建 sc,但出现错误,提示 JVM 中已经存在 Spark 上下文。请看图片:

http://s30.photobucket.com/user/kctestingeas1/media/No%20Spark%20Context.jpg.html

我相信我已经在 scala Spark shell 中,正如你可以在我的 cmd 窗口顶部看到的 bin\spark-shell

请指教。谢谢

最佳答案

希望您找到问题的答案,因为我也遇到了同样的问题。

同时,请使用此解决方法。在 scala Spark shell 中,输入:

  1. 导入 org.apache.spark.SparkContext
  2. val sc = SparkContext.getOrCreate()

然后您就可以访问 sc。

关于apache-spark - Spark Context 不会在 Scala Spark Shell 中自动创建,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41965045/

相关文章:

apache-spark - 使用提供的 Hadoop 构建 Spark

scala - 使用 Spark SQL GROUP BY 对 DataFrame 进行高效的 PairRDD 操作

maven - 如何将 proto3 与 Hadoop/Spark 一起使用?

apache-spark - pyspark 如何有效地进行这种转换?

scala - Spark 应用程序出现 "Task not serializable"错误?

hadoop - Hadoop Yarn-如何请求固定数量的容器

scala - 带有 mapGroupsWithState 的 Spark Streaming

amazon-web-services - Pyspark AWS凭证

apache-spark - 如何获取一列中至少有两个不同值的行?

scala - Databricks SCALA UDF 在注册函数时无法加载类