memory - 使用什么来查看 Spark 的内存使用情况(使用 YARN)?

标签 memory memory-management apache-spark monitoring

我正在经历 presentation 之一关于 spark 内存管理,并想知道如何获得执行程序内存使用情况的良好图形图像(类似于演示文稿中提到的内容),以更好地了解内存不足错误。此外,在 Spark 执行器中分析堆外内存使用情况的最佳方法是什么?如何找到随时间变化的堆外内存使用量?

我查看了 Ganglia,但它提供了节点级别的指标。我发现使用节点级别的指标很难理解执行程序级别的内存使用情况。

最佳答案

我一直在考虑类似的工具!

我认为 org.apache.spark.scheduler.SparkListener是 Apache Spark 中所有低级指标的接口(interface),onExecutorMetricsUpdate 是开发高级监控工具时要查看的方法。

您也可以使用 JMX 接口(interface)监控 JVM,但它可能太低级并且肯定没有关于 Spark 如何使用资源的上下文信息。

关于memory - 使用什么来查看 Spark 的内存使用情况(使用 YARN)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39487095/

相关文章:

c# - List.clear 内存问题

ios - 消息发送到解除分配的实例非常奇怪的错误

java - 如何从csv文件中读取自定义格式的时间?

scala - 如何在 Spark SCALA 中重命名 AWS 中的 Spark 数据帧输出文件

c - 为 C 中的动态二维数组赋值时出现段错误

python - Scrapy 导入 100mb 的 XML 提要 - 内存错误

java - 与按需执行文件查找相比,什么时候在初始化时从文件加载所有数据更好? ( java )

linux - 在 Linux 中测试内存是否可访问

c# - 如何等到内存被释放?

apache-spark - Pyspark pandas_udf 文档代码的错误 :'java.lang.UnsupportedOperationException'