apache-spark - num-executors 可以覆盖 Spark-Submit 中的动态分配吗

标签 apache-spark spark-submit

可以在spark-submit命令中指定num-executors覆盖已经启用的动态分配(spark.dynamicAllocation.enable true)吗?

最佳答案

从日志中可以看到:

INFO util.Utils: Using initial executors = 60, 
max of spark.dynamicAllocation.initialExecutors, spark.dynamicAllocation.minExecutors and spark.executor.instances

这意味着spark将采用max(spark.dynamicAllocation.initialExecutors,spark.dynamicAllocation.minExecutors,spark.executor.instances)

spark.executor.instances 是 --num-executor。

关于apache-spark - num-executors 可以覆盖 Spark-Submit 中的动态分配吗,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48352830/

相关文章:

apache-spark - 使用Dataframe的行之间的 Spark 余弦距离

apache-spark - Spark Structured Streaming foreachBatch 和 UPSERT(合并): to persist or not to persist?

apache-spark - 如何在 spark 2.1.0 中提交 python 文件?

scala - 从 spark-submit 运行应用程序时从 jar 读取输入文件

apache-spark - 如何将配置从 spark-submit 传递到 yarn cluster?

sql - Scala 如何在使用 sqlContext 的查询中处理 isnull 或 ifnull

apache-spark - Spark 中的一类分类模型

python - 使用 UDF 会忽略 when 中的条件

apache-spark - Zeppelin notebook 执行不是手动的

scala - 如何在 Spark-Submit 应用程序中执行 S3-dist-cp 命令