hadoop - 配置单元 : remove stuff from distributed cache

标签 hadoop hive distributed-cache

我可以通过以下方式将内容添加到分布式缓存

add file largelookuptable

然后运行一堆 HQL。

现在当我有一系列命令时,如下所示

add file largelookuptable1;
select blah from blahness using somehow largelookuptable1;
add file largelookuptable2;
select newblah from otherblah using largelookuptable2;

在这种情况下,largelookuptable1 对于第二个查询来说是不必要的。有没有办法在第二个查询运行之前摆脱它?

最佳答案

在 Hive CLI 上,键入: 删除文件largelookuptable1;

同样的事情适用于添加到分布式缓存的 jar。

语法(来自 Hive CLI): 用法:删除 [FILE|JAR|ARCHIVE] []*

关于hadoop - 配置单元 : remove stuff from distributed cache,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6645489/

相关文章:

java - 从 DistributedCache 读取 Hadoop 作业的分片输出

java - 当共享 JDBC 缓存存储到位时,将 "numOwners"在 Infinispan 中设置为大于 1 是否有效?

hadoop - HBase 在 Hadoop 2.2.0 中不工作

hadoop - 当中间输出不适合 Spark 中的 RAM 时会发生什么

scala - Apache Spark 处理倾斜数据

database - 如何使用 java 从安全的 kerberos 环境访问配置单元数据库

hadoop - HIVE - ORC 读取 NULL 十进制值问题 - java.io.EOFException : Reading BigInteger past EOF

java - 使用Hive SQL Java错误将CSV数据加载到表中InvocationTargetException

hadoop - 从非常大的序列文件中获取数据的最佳方法是什么?