hadoop - 我们如何将多个 hql 文件传递​​给 hive/beeline?

标签 hadoop hive

我想在一个配置单元 session 中运行 file_1.hql 和 file_2.hql。我怎样才能做到这一点? 我正在考虑将这两个文件作为 hive -f file_1.hql file_2.hql 传递。 但是 -f 只需要一个文件。有什么建议吗?

最佳答案

使用 bash 怎么样:

hive -e "$(cat file1.hql file2.hql)"

关于hadoop - 我们如何将多个 hql 文件传递​​给 hive/beeline?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48795713/

相关文章:

hadoop - Hadoop流-输入参数过多

apache-spark - 无法使用SparkSQL在Hive中写入数据

c# - Hive 和 HBase 集成 - 数据访问问题

mysql - Hive - 标准化 Hive 中传入日期字段的方法?

Hadoop:如何在同一个作业中输出不同的格式类型?

hadoop - 在 Mac 上安装 Hadoop、ZooKeeper、AccumuLo

hadoop - 为什么当 reducer 达到一定数量时,Hadoop工作时间会大大减少

在配置单元的 udf 上连接两个表

apache-spark - 如何修复“使用spark创建配置单元兽人表时权限被拒绝”?

hadoop - Mapreduce和GlobStatus中的Null Pointer异常