apache-spark - 如何在 Google Dataproc 中发送失败作业的警报通知?

标签 apache-spark pyspark google-cloud-dataproc stackdriver

我想知道是否有办法 Hook Dataproc 中提交的作业的某些通知。我们计划使用 Dataproc 24/7 运行流应用程序。但 Dataproc 似乎没有办法通知失败的作业。

只是想知道是否可以通过任何方式使用 Google StackDriver。

谢谢 苏仁

最佳答案

当然,StackDriver 可用于针对定义的日志指标设置警报策略。 例如,您可以设置指标缺失策略,该策略将监控作业是否成功完成,并在指定时间段内缺失时发出警报。

转到Logging在您的控制台中并设置过滤器:

resource.type="cloud_dataproc_cluster"
jsonPayload.message:"completed with exit code 0"

点击创建指标,填写详细信息后,您将被重定向到日志指标页面,您可以在其中根据指标创建警报

关于apache-spark - 如何在 Google Dataproc 中发送失败作业的警报通知?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38520184/

相关文章:

apache-spark - 链接 Dataframe 函数调用

scala - 使用 Redis 进行 Spark 结构化流动态查找

python - 如何使用 PySpark 删除数据框中基于多个过滤器的列?

python - 如何在 AWS Glue 中正确重命名动态数据帧的列?

apache-spark - 暂停 Dataproc 集群 - Google 计算引擎

mongodb - 无法通过 Spark 连接到 Mongo DB

amazon-web-services - 如何在 Spark MLLib 中为支持向量机配置内核选择和损失函数

hadoop - 我可以在本地计算机上的python上运行spark命令来hadoop吗?

python - Spark 读取 BigQuery 外部表

pyspark - GCP Dataproc Spark 消耗 BigQuery