memory - spark.python.worker.memory 与 spark.executor.memory 有何关系?

标签 memory apache-spark pyspark hadoop-yarn

This diagram很清楚不同YARN和Spark内存相关设置之间的关系,除了spark.python.worker.memory

spark.python.worker.memory 如何适应这种内存模型?

Python 进程是由 spark.executor.memory 还是 yarn.nodemanager.resource.memory-mb 管理的?

更新

This question解释了设置的作用,但没有回答有关内存管理的问题,或者它与其他内存设置的关系。

最佳答案

Found this thread从 Apache-spark 邮件列表中,看来 spark.python.worker.memory 是 spark.executor.memory 内存的子集。

来自线程:“spark.python.worker.memory 用于执行器中的 Python worker ”

关于memory - spark.python.worker.memory 与 spark.executor.memory 有何关系?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36594056/

相关文章:

c++ - 变量周围的堆栈已损坏,visual studio 2010 问题

用于跟踪重复项的 python 数据类型

scala - 如何在 Spark 中使用 CSV 文件中的 NOT IN

java - Spark : Named_struct requires at least one argument

apache-spark - 由于任务积压而请求执行者

python递归内存不足

javascript - 在测试套件期间获取 Javascript 内存分析

apache-spark - Spark RDD 是否缓存在工作节点或驱动节点(或两者)上?

scala - Spark persist()(然后是 Action )真的持久吗?

apache-spark - 具有窗口功能的PySpark数据偏度