xml - Oozie workflow.xml 错误

标签 xml hadoop oozie

我是 hadoop 生态系统的新手,我一直在尝试通过 Oozie 协调和执行基本的 pig 工作。

当我尝试验证我的 workflow.xml 文件时出现以下错误。

错误:

Invalid app definition, org.xml.sax.SAXParseException; lineNumber: 32; columnNumber: 16; cvc-complex-type.2.3: Element 'workflow-app' cannot have character [children], because the type's content type is element-only.

这是我的 workflow.xml 文件供您引用。

  1 <workflow-app xmlns="uri:oozie:workflow:0.2" name="log-wf">
  2 <start to="pig-node"/>
  3  
  4 <action name="pig-node">
  5     <pig>
  6         <job-tracker>${jobTracker}</job-tracker>
  7         <name-node>${namenode}</name-node>
  8         <prepare>
  9             <delete path="${nameNode}/user/${appRoot}/pigOutput"/>
 10         </prepare>
 11         <configuration>
 12             <property>
 13                 <name>mapred.job.queue.name</name>
 14                 <value>${queueName}</value>
 15             </property>
 16             <property>
 17                 <name>mapred.compress.map.output</name>
 18                 <value>true</value>
 19             </property>
 20         </configuration>
 21         <script>script.pig</script>
 22         <param>piginput=/user/${appRoot}/clean.log</param>
 23         <param>pigoutput=/user/${appRoot}/pigOutput</param>
 24     </pig>
 25     <ok to="end"/>
 26     <error to="fail"/>
 27 </action>
 28 
 29 
 30 
 31  <end name="end"/>
 32 </workflow-app>

我不明白工作流标签中的哪个元素导致了错误,因为第 32 行没有第 16 列。你们对此有什么建议吗?

最佳答案

对xml文件来说是通用的,但它本身并没有格式化,只是一些没有被解析为空格的符号。查看原始工作流文件以查看它有什么问题。但一般来说,您可以保持 xml 文件的格式,这只是拥有一个像样的编辑器的问题:)。 – @patrungel

感谢您的回复。

关于xml - Oozie workflow.xml 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25431961/

相关文章:

java - 为什么我不能写文字?

android - 当内部 View 与父级右对齐时,RelativeLayout 背景会拉伸(stretch)

javascript - 获取 Google map XML 文件的最后一个节点

hadoop - tpc-ds 不会将数据加载到表中(它会生成数据但卡在 loadinf 步骤中,只需从 24 个表中加载表 17,之后什么都不做)

hadoop - 在本地模式下配置 hadoop

Oozie 协调器应用程序 : execute job every Nth minute divisible by M

php - 以最简单、最整洁的方式一页可编辑列表

Hadoop+Spark - 一旦应用程序正常启动一次就会显示错误

hadoop - FNF:无法执行ssh-base.sh

java - 错误 : java. lang.ClassCastException : wordCountTest. WordCountTest 无法转换为 org.apache.hadoop.mapreduce.Mapper