azure - 错误代码: JA018 whie runnnig oozie workflow in HDInsight spark2 cluster

标签 azure apache-spark oozie azure-hdinsight oozie-coordinator

我正在 azure hdinsight Spark2 集群中安排具有以下结构的 oozie 作业。 我使用以下命令安排了作业,

oozie job -config /job.properties -run
oozie job -config /coordinator.properties -run

但是我收到以下错误

Status: ERROR
Error Code: JA018
Error Message: Main class [org.apache.oozie.action.hadoop.ShellMain], exit code

enter image description here

我的workflow.xml文件:

<workflow-app name="sparkshellwf" xmlns="uri:oozie:workflow:0.3">
  <start to="sparkshellwf"/>
  <action name="sparkshellwf">
    <shell xmlns="uri:oozie:shell-action:0.1">
      <job-tracker>${jobTracker}</job-tracker>
      <name-node>${nameNode}</name-node>
      <configuration>
        <property>
          <name>mapred.job.queue.name</name>
          <value>${queueName}</value>
        </property>
      </configuration>
      <exec>$SPARK_HOME/bin/spark-submit</exec>
      <!--Adding all arguments needed/optional for Spark-submit here-->
      <argument>--class</argument>
      <argument>${Spark_Driver}</argument>
      <argument>--master</argument>
      <argument>${Spark_Master}</argument>
      <argument>--deploy-mode</argument>
      <argument>${Spark_Mode}</argument>
      <argument>--num-executors</argument>
      <argument>${numExecutors}</argument>
      <argument>--driver-memory</argument>
      <argument>${driverMemory}</argument>
      <argument>--executor-memory</argument>
      <argument>${executorMemory}</argument>
      <argument>--executor-cores</argument>
      <argument>${executorCores}</argument>
      <argument>${workflowRoot}/lib/${sparkJar}</argument>
    </shell>
    <ok to="end"/>
    <error to="fail"/>
  </action>
  <kill name="fail">
    <message>Job failed, error message[${wf:errorMessage(wf:lastErrorNode())}] </message>
  </kill>
  <end name="end"/>
</workflow-app>

但是Spark作业运行正常,没有任何错误

我收到的 oozie 响应如上所述。

最佳答案

JA018 Error is "output directory exists error" in workflow.
you can add following code to delete output directory in workfolw.xml.
<prepare>
            <delete path="[PATH_of_output directory]"/>
            ...
            <mkdir path="[PATH]"/>
            ...
</prepare>
you will get full log using following command

  oozie job -oozie http://hostname:11000/oozie -log job_id
  or
  yarn logs -applicationId <application_ID>
  You can refer link given below for different error codes
  https://oozie.apache.org/docs/4.2.0/oozie-default.xml

关于azure - 错误代码: JA018 whie runnnig oozie workflow in HDInsight spark2 cluster,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45095910/

相关文章:

hadoop - 发出同时运行两个Oozie协调器应用程序的问题

azure - VS 2013 部分支持 azure v12 中的证书和对称 key

Azure Cosmos python 查询

apache-spark - Elasticsearch 集群大小/架构

apache-spark - Spark SQL 的哪一部分解析 SQL 语句并创建执行计划?

hadoop - 如何创建协调器工作以一次(即基于日期)运行最近一个月的工作?

Azure Function V2 值不能为空

python - 如何在生成样本时阻止 Azure TTS 播放音频?

java - Windows 上的 Spark - 初始化 SparkContext 时出错,Spark URL 无效

hadoop - Python Oozie Shell操作未能加载文件