在每个插入查询中,在Hdfs文件系统中都会使用000000_0_copy *创建一个文件。
这是hive和Hdfs的默认行为吗?
如果有的话,是否有压实的概念,那么共作用如何工作?
最佳答案
HDFS是仅附加文件系统,意味着修改(UPDATE / DELETE语句)已写入文件的任何部分,必须重写整个文件并替换旧文件,或者编写新文件以插入甚至单个记录。
压缩不是自动过程。您需要编写自己的代码来查询一个表,然后插入另一种格式,例如 Parquet /兽人
关于hadoop - Hive的每个Insert查询都会在Hdfs文件系统中创建一个新文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46618953/