apache-flink - 如何获取Flink中所有并行度的指标?

标签 apache-flink flink-streaming

在 flink Web UI 中,我可以获得每个并行度的指标,

对于并行度 0,它喜欢:

0_filter_numberOfRecords in 

对于并行度 9,它喜欢:

9_filter_numberOfRecords in 

如何获得所有并行性的相同度量?

最佳答案

您可以通过直接查询Flink的rest端点来获取聚合指标。您需要以下信息:

  1. 作业 ID jobId 标识您要查询的运算符(operator)所属的作业
  2. 顶点 ID vertexId 标识您要从中检索指标的运算符

可以通过查询http://flink_cluster:port/jobs获取jobId

可以通过查询http://flink_cluster:port/jobs/:jobId来获取vertexId,它为您提供作业信息(带有顶点ID的运算符列表) )。

获得所需的 id 后,您可以将 GET 请求发送至:

http://flink_cluster:port/jobs/:jobId/vertices/:vertexId/subtasks/metrics?get=filter.numberOfRecords

请将 :jobId:vertexId 替换为各自的 ID。

如果您想要聚合子任务子范围内的指标,则可以将请求更改为 subtasks/metrics?get=filter.numberOfRecords&subtasks=0-1,4-5命令指定要包含在聚合中的子任务。

关于apache-flink - 如何获取Flink中所有并行度的指标?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55016972/

相关文章:

apache-flink - 弗林克 Apache : What is the most efficient : read file and split text to tuple or read csv

kubernetes - 在 kubernetes 上持续部署有状态的 apache flink 应用程序

batch-processing - Flink 批处理接收器

apache-flink - Flink - 用于一系列 API 调用的异步 IO 运算符

apache-flink - Apache Flink : What does "Class X does not contain a setter for field Y" mean?

java - 如何读取flink中的前N条kafka消息?

apache-flink - Apache 弗林克 : Best way to architect many-to-one join on dynamic table?

testing - 如何正确测试 Flink 窗口函数?

hadoop - flink streaming job中如何读写HBase

hadoop - Apache Flink:可用任务插槽0