apache-flink - Apache Flink 动态设置JVM_OPT env.java.opts

标签 apache-flink

是否可以设置自定义 JVM 选项 env.java.opts在提交作业时未在 conf/flink-conf.yaml 中指定它时文件?

我问的原因是我想在我的 log4j 中使用一些自定义变量。我也在 YARN 上运行我的工作。

我使用 CLI 尝试了以下命令,它从 = 中删除了所有内容以后签字

$ flink run -m yarn-cluster -yn 2 -yst -yD env.java.opts="-DappName=myapp -DcId=mycId"

enter image description here

最佳答案

由于 Flink 解析动态属性的方式,目前这是不可能的。 Flink 假设动态属性的形式为 -D<KEY>=<VALUE>还有那个<VALUE>不包含任何 =这显然是错误的。因此,目前您必须指定 env.java.opts通过 flink-conf.yaml .

我开了一个 JIRA issue来解决这个问题。

更新

Flink >= 1.3.0 和 >= 1.2.2 已修复该问题。

关于apache-flink - Apache Flink 动态设置JVM_OPT env.java.opts,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43940117/

相关文章:

apache-flink - 使用 ROW() 进行嵌套数据结构

java - 将 TemporalTableFunction 注册为函数时出现编译器错误

json - 如何使用 flink 流式传输 json?

maven - Apache Flink 1.4中的Elasticsearch 5连接器

maven - Apache Flink 1.3 中的 Elasticsearch 5 连接器

java - flink : job won't run with higher taskmanager. 堆.mb

java - Flink 中的局部变量

java - 如何将 flink 用户自定义指标导出到 prometheus & grafana

python - Flink Streaming Python API - reduce() 产生增量结果而不是最终值

scala - apache flink 的 union 类型混淆?