apache-spark - 为什么驱动程序内存不在我的 Spark 上下文配置中?

标签 apache-spark pyspark spark-submit

当我运行以下命令时:

spark-submit --name "My app" --master "local[*]" --py-files main.py --driver-memory 12g --executor-memory 12g

在我的 main.py 中使用以下代码:

sc = SparkContext.getOrCreate()
print(sc.getConf().getAll())

驱动程序内存和执行程序内存未出现在配置中。即使我处于本地模式,我想我至少应该在配置中包含驱动程序内存。

知道为什么不是这样吗?

最佳答案

您的提交命令不正确。 confs 应该在 .py 之前出现文件。参见 Launching Applications with spark-submit :

 ./bin/spark-submit \
  --class <main-class> \
  --master <master-url> \
  --deploy-mode <deploy-mode> \
  --conf <key>=<value> \
  ... # other options
  <application-jar> \
  [application-arguments]

[...] For Python applications, simply pass a .py file in the place of <application-jar> instead of a JAR, and add Python .zip, .egg or .py files to the search path with --py-files.

也就是说,你的命令应该是这样的:

spark-submit --name "My app" \
--master "local[*]" \
--driver-memory 12g \
--conf spark.executor.memory=12g \
/path_to/main.py

关于apache-spark - 为什么驱动程序内存不在我的 Spark 上下文配置中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65873182/

相关文章:

apache-spark - 如何在 Spark Pipeline 中使用随机森林

google-cloud-dataproc - GCP Dataproc spark.jar.packages 问题下载依赖项

apache-spark - Spark中的HDFS文件访问

python - 如何spark-submit存储在GCP存储桶中的.py文件?

java - 在独立模式下使用 spark 在 elasticsearch 中建立索引

json - 使用 Apache Spark 读取 JSON - `corrupt_record`

python - 从 pyspark session 中获取 hive 和 hadoop 版本

performance - 什么时候在 pyspark 中缓存?

python - Spark 中 IF then ELSE 的等价物

python - 运行 pyspark 字数统计示例