我有 spark.cores.max
设置为 24
[3 个工作节点],但是如果我进入我的工作节点并看到只有一个进程 [command = Java] 正在运行,消耗内存和 CPU。我怀疑它没有使用所有 8 个内核(在 m2.4x large
上)。
怎么知道号码?
最佳答案
您可以在 Spark Web UI 下看到集群中每个 worker 占用的内核数:
关于apache-spark - 如何查看 Spark 使用的核心数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25772263/