apache-spark - 如何获取Spark Streaming运行时间

标签 apache-spark spark-streaming

我需要设置 Spark Streaming 应用程序。应用程序的作业需要根据整个应用程序的运行时间做出一些决策。

例如,假设 Spark Streaming 应用程序于 08:00 提交。 08:00 到 10:00 之间运行的作业应执行加操作,而 10:00 之后运行的作业应执行减操作。

如何记录第一个作业(或应用程序)的开始时间并确定每个作业与第一个作业之间的间隔?或者还有其他好的解决办法吗?

最佳答案

SparkContextstartTime()方法返回其激活的时间。

关于apache-spark - 如何获取Spark Streaming运行时间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59501863/

相关文章:

apache-spark - Spark 如何处理比 Spark 存储大得多的数据?

apache-spark - 将外部属性文件添加到spark中的类路径

scala - 使用 spark/scala 附加/连接两个文件

scala - 如何控制从 Spark DataFrame 写入的输出文件的数量?

apache-spark - Apache Spark 中 describe() 和 summary() 的区别

sql - Spark sql 中的广播连接(Spark 1.6.2)

apache-spark - 将 OFF_HEAP 存储与 Spark 1.4.0 和 Tachyon 0.6.4 一起使用时出现错误

apache-spark - Spark Streaming 中的有序处理

java - 通过 Spark Streaming 从 Kafka 代理中的特定主题分区读取数据

apache-spark - Spark Streaming 应用程序的核心用法