apache-spark - Spark 上的 Kubernetes 执行器清理

标签 apache-spark kubernetes

我正在 K8S 上使用 Spark 运行一些作业,有时我的执行器会在作业中死掉。每当发生这种情况时,驱动程序都会立即删除失败的 Pod 并生成一个新的 Pod。

有没有办法阻止 Spark 删除已终止的执行程序 Pod?这将使调试故障变得更加容易。

现在我已经将所有 Pod 的日志收集到另一个存储中,以便我可以查看日志。但是查询每个 Pod 的日志非常麻烦,而且我无法看到它们的 K8S 元数据。

最佳答案

此设置已添加到SPARK-25515中。遗憾的是,它不适用于当前发布的版本,但应该在 Spark 3.0.0 中提供

关于apache-spark - Spark 上的 Kubernetes 执行器清理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58414655/

相关文章:

apache-spark - 如何在 YARN 中的 Cloudera 5 上设置动态分配?

apache-spark - 什么是 DAGScheduler.messageProcessingTime?

kubernetes - 如何在 CustomResourceDefinitions 更改后更新资源

包含另一个 cat 变量的 Kubernetes 环境变量

amazon-web-services - AWS EKS : Assign multiple Service Accounts to Deployment\Pod

AWS 上的 Kubernetes 集群,与服务器 localhost :8080 was refused 的连接

java - Spark查找每列的最大比例

r - Sparklyr - 无法实例化 SessionHiveMetaStoreClient

hadoop - 当spark master设置为LOCAL时,SparkSession对象不存在HDFS路径

kubernetes - 如何在 Stackdriver 日志中检测 GKE 自动升级节点