在 Spark 中,执行器可以同时运行许多任务,可能是 2 个、5 个或 6 个。
Spark 如何计算(或计算)在同一个执行器中同时运行的任务数量,即一个执行器中可以同时运行多少个任务?
一个执行器可能正在执行一项任务,但另一个任务可能会在同一个执行器上同时运行?其标准是什么?
执行器具有固定数量的内核和内存。由于我们没有指定 Spark 中任务的内存和内核要求,如何计算一个执行器中可以并发运行多少个任务?
最佳答案
执行器内并行运行的任务数量 = 配置的核心数量。 您始终可以通过配置更改此数字。 执行器运行的任务总数(并行或顺序)取决于创建的任务总数(通过拆分数量)和执行器数量。
在一个执行器中运行的所有任务共享配置的相同内存。在内部,它只是启动与内核数量一样多的线程。
关于apache-spark - Spark 执行器和任务并发,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39383984/