apache-spark - Spark 执行器和任务并发

标签 apache-spark architecture internal

在 Spark 中,执行器可以同时运行许多任务,可能是 2 个、5 个或 6 个。

Spark 如何计算(或计算)在同一个执行器中同时运行的任务数量,即一个执行器中可以同时运行多少个任务?

一个执行器可能正在执行一项任务,但另一个任务可能会在同一个执行器上同时运行?其标准是什么?

执行器具有固定数量的内核和内存。由于我们没有指定 Spark 中任务的内存和内核要求,如何计算一个执行器中可以并发运行多少个任务?

最佳答案

执行器内并行运行的任务数量 = 配置的核心数量。 您始终可以通过配置更改此数字。 执行器运行的任务总数(并行或顺序)取决于创建的任务总数(通过拆分数量)和执行器数量。

在一个执行器中运行的所有任务共享配置的相同内存。在内部,它只是启动与内核数量一样多的线程。

关于apache-spark - Spark 执行器和任务并发,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39383984/

相关文章:

Scala - 是否可以编写具有可变参数的 HOF?

asp.net - 单例模式与 Web 应用程序,不是一个好主意!

java - 如何将JavaPairDStream写入Redis?

java - SparkAppHandle 永远给出未知状态

用于 Raspberry Pi 上 JSON 服务器的 Python 库

architecture - 在哪里放置需要从数据库中获取数据的域逻辑

c# - 如何将所有公共(public)方法转为内部方法?

azure - 2个云服务之间的通信

java - 为什么我不能访问我的 jar 中的文件,除非我在运行它时位于 Jar 所在的文件夹中?

scala - Spark 在大型洗牌作业上失败,出现 java.io.IOException : Filesystem closed