apache-spark - Sparkconf 和 Sparkcontext 有什么区别?

标签 apache-spark pyspark

当我制作 Import Pyspark from Sparkcontext 时,我遇到了 pyspark 的问题,但我发现它也可以从 sparkconf 导入,我是询问这两个 spark 类库有什么区别。

最佳答案

Sparkcontext 是spark 环境的入口点。对于每个 sparkapp,您需要创建 sparkcontext 对象。在 spark 2 中,您可以使用 sparksession 而不是 sparkcontext。

Sparkconf 类为您提供了提供配置参数的各种选项。

Val Conf = new sparkConf().setMaster(“local[*]”).setAppName(“test”)
Val SC  = new sparkContext(Conf)

spark 配置被传递到 spark context。您还可以在 sparkconf 中设置不同的应用程序配置并传递给 sparkcontex

关于apache-spark - Sparkconf 和 Sparkcontext 有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51783414/

相关文章:

scala - 无法压缩分区数不相等的 RDD。我可以使用什么来替代 zip?

scala - 使用 Spark 连接器填充 Neo4j

apache-spark - 在S3中将大型Spark Dataframe保存为单个json文件

python - Pyspark:将 RDD 转换为 RowMatrix

python - 为什么我的简单Spark应用程序运行这么慢?

apache-spark - 如何优雅地停止运行 Spark Streaming 应用程序?

apache-spark - Pyspark 无法读取以特殊字符 (ø) 作为分隔符的 csv 文件

python - 如何在 pyspark 中并行下载大量 URL 列表?

apache-spark - 如何批量处理 PySpark DataFrame 中的项目

java - pyspark:从 pyspark 调用自定义 java 函数。我需要 Java_Gateway 吗?