hadoop - 如何获取 Hive 编译器生成的 MapReduce Jobs 源代码?

标签 hadoop hive

我想知道SQL编译器生成的代码是什么Hive (即,如果我执行一个 sql 语句,我想查看由 SQL 配置单元的编译器生成的 MapReduce 作业的代码)。

我怎样才能得到它?

最佳答案

对于 Hive,它将物理计划序列化为 xml 文件(http://www.slideshare.net/nzhang/hive-anatomy 中的第 15 页)。所以,我认为用户无法获得 hadoop 的真正源代码。要获取代码,您可以尝试 YSmart ( http://ysmart.cse.ohio-state.edu/ )。它是一个翻译器,可以将您的 sql 查询翻译成 hadoop 的 java 源代码。您可以使用 YSmart 的在线版本。只需提交架构和查询,您就可以查看和下载 Java 代码。

关于hadoop - 如何获取 Hive 编译器生成的 MapReduce Jobs 源代码?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9082867/

相关文章:

mysql - 从下面给出的示例数据中,删除名称和年龄组合上的重复项并打印结果

scala - Spark SQL error..org.datanucleus”已注册

database - Hadoop仅建议用于分布式环境吗?

hadoop如何从 map 作业生成输入

sql - 在 HIVE 中分组不能像我想要的那样工作

hadoop - 更新配置单元中新添加的列

hadoop - 在 Pig 中按组计算 1 和 0

java - 线程中的异常 "main"java.io.IOException : Job failed

java - 在 Hadoop 2.2.0 中运行作业的 IBM_JAVA 错误

hadoop - 如何比较 PIG 中的两个元组?