hadoop - 压缩RC表 hive

标签 hadoop hive compression

我正在尝试压缩创建的RC表,如下所示:

create table rc_test(
   a string,
   b string)
stored as rcfile

我有另一个 Parquet ,我这样做是:
alter table parquet_test set tblproperties ("parquet.compression"="snappy");

RC表的tblproperties是什么?

最佳答案

您可以在Hive中插入覆盖表之前,在同一 session 中设置此属性:

SET hive.exec.compress.output=true;
SET mapred.output.compression.type=BLOCK;
SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;

关于hadoop - 压缩RC表 hive ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55783853/

相关文章:

apache-spark - 从 JDBC 源迁移数据时如何优化分区?

php - 如何将 zip/压缩文件转换为 PHP 中的字符串?

map - 如何限制并发运行的 map task ?

java - 如何克服 hadoop 中的 java.lang.IncompatibleClassChangeError

hadoop - 方案的ggGas No FileSystem:ggfs

用于低网络带宽使用的压缩 Java 自定义序列化

php - 通过在 PHP 中转换它的基数来压缩小字符串?

hadoop - 从 Hue UI 执行的 Oozie 中的 Hive 操作失败

hadoop - Hive:更简洁的 SELECT AS 和 GROUP BY 方式

hadoop - Hive ParseException-无法识别Select子句中的输入