hadoop - Flink Temp Jar上传目录已删除

标签 hadoop apache-flink flink-streaming

我最近无法将任何jars上传到我的Flink集群,该集群在AWS EMR上的YARN下运行。已经有一个长期运行的流应用程序运行了26天。似乎temp目录已被删除,但是我真的不认为我删除了它。

jobmanager.log:

2019-02-12 22:02:05,156 WARN  org.apache.flink.runtime.webmonitor.handlers.JarListHandler   - Jar upload dir /tmp/flink-web-94fee1e8-35b9-409f-be97-d86c0f021459/flink-web-upload does not exist, or had been deleted externally. Previously uploaded jars are no longer available.

该实例有足够的空间来存储jar。

这是YARN应用的状态:
Application-Id : application_1547758510009_0001
Application-Name : Flink session cluster
Application-Type : Apache Flink
User : hadoop
Queue : default
Application Priority : 0
Start-Time : 1547758629234
Finish-Time : 0
Progress : 100%
State : RUNNING
Final-State : UNDEFINED
Tracking-URL : http://ip-cp1.ec2.internal:39975
RPC Port : 39975
AM Host : ip-cp1.ec2.internal
Aggregate Resource Allocation : 43765538005 MB-seconds, 4500338 vcore-seconds
Aggregate Resource Preempted : 0 MB-seconds, 0 vcore-seconds
Log Aggregation Status : NOT_START
Diagnostics : 
Unmanaged Application : false
Application Node Label Expression : <Not set>
AM container Node Label Expression : <DEFAULT_PARTITION>

我还没有设置jobmanager.web.upload.dirjobmanager.web.tmpdir。重新创建该目录后,我可以通过cURL将其上传到其中(并确认文件已到达),但随后列出这些jar却什么也没显示。

有没有人见过这个?而且,现在如何正确重新创建必要的上载目录?

最佳答案

一些Linux发行版会定期清理temp目录(/tmp),即不仅在重新启动时。

您应该将Flink配置为使用非临时目录来存储JAR。

关于hadoop - Flink Temp Jar上传目录已删除,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54659355/

相关文章:

amazon-ec2 - Hadoop 安全模式恢复 - 花费大量时间

hadoop - Apache Flink:可用任务插槽0

java - 在 CLI 中打印 hadoop 属性

junit - 如何从程序停止flink流作业

hadoop - 如何使用 AvroParquetOutputFormat 设置多个 Avro 模式?

apache-kafka - 如果在 Apache Flink 中操作时发生异常,则不提交来自 Apache Kafka 的消息

Python - Apache Beam - Flink 运行器设置 : ReadFromKafka returns error - RuntimeError: cannot encode a null byte[]

hadoop - 具有许多并行存储桶的Flink Hadoop存储桶接收器性能

apache-flink - 如何使用 Prometheus 指标监控 Grafana 中的 Flink 背压

apache-flink - Flink taskmanager 在创建检查点/保存点失败后卡住(100% cpu 使用率)