scala - 无法从 JAR 文件构建程序

标签 scala apache-flink

我正在本地集群上运行Flink,编译我运行的包后

flink run -c com.gurustreams.flink.EntryPoint \
    /Users/jeremy.zhang/workspace/guru-streams/flink/target/scala-2.11/guru-streams-flink-assembly-0.0.1.jar \
    --stream-name KafkaReadExample

并收到此错误:

Could not build the program from JAR file.

我还尝试从 Flink 仪表板运行 jar 文件并出现以下错误:

org.apache.flink.client.program.ProgramInvocationException: The program plan could not be fetched - the program aborted pre-maturely.

System.err: (none)

System.out: (none)

最佳答案

如果在打包 JAR 文件以及 CLASSPATH 中所需的其他内容的过程中抛出 FileNotFoundException 异常,Flink CLI 会显示“无法从 JAR 文件构建程序”。某处似乎配置错​​误。

如果您查看日志,您应该会找到更多信息来帮助调试。

通常,日志将位于集群每个节点上的 flink 安装的日志目录中。您可以使用 Flink 仪表板检查它们。对于本地集群,可以在http://localhost:8081/#/jobmanager/log查看jobmanager日志。 。对于任务管理器,请转到 http://localhost:8081/#/taskmanagers ,选择一个任务管理器,然后单击“日志”。

当出现问题时,查看作业管理器和任务管理器日志以获取线索会很有帮助。

关于scala - 无法从 JAR 文件构建程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52421084/

相关文章:

java - Scala、Spring、WebFlow、Hibernate 和 Maven 或 Java、Spring、WebFlow、Hibernate 和 Maven

java - Java 是否使用 SSH 配置文件?

scala - ApacheFlink 中的数据集联盟

cassandra - Apache 弗林克 : How can I read a DataStream/DataSet from Cassandra?

java - JpaRepository 不在自定义 RichSinkFunction 中 Autowiring

scala - 在 Mem (Chisel) 中初始化数据

scala - 无法加载play.http.errorHandler-未调用自定义处理程序

generics - `forSome` 的所有用法是否可以替换为 `_` 的等效用法?

scala - Spark 3.0 中使用聚合器的通用 UDAF

apache-flink - 如何对flink无水印的union数据流进行排序