hadoop - 在 Hive 中描述扩展表

标签 hadoop mapreduce hive lzo

我正在将表存储为 SequenceFile 格式,并且正在设置以下命令以启用带有 BLOCK 压缩的序列-

set mapred.output.compress=true;
set mapred.output.compression.type=BLOCK;
set mapred.output.compression.codec=org.apache.hadoop.io.compress.LzoCodec;

但是当我尝试像这样查看表格时-

describe extended lip_table

我得到以下信息,其中有一个名为 compressed 的字段被设置为 false,这意味着我的数据没有通过设置以上三个来压缩命令?

Detailed Table Information      Table(tableName:lip_table, dbName:default, owner:uname, 
createTime:1343931235, lastAccessTime:0, retention:0, sd:StorageDescriptor(cols:
[FieldSchema(name:buyer_id, type:bigint, comment:null), FieldSchema(name:total_chkout, 
type:bigint, comment:null), FieldSchema(name:total_errpds, type:bigint, comment:null)], 
location:hdfs://ares-nn/apps/hdmi/uname/lip-data, 
inputFormat:org.apache.hadoop.mapred.SequenceFileInputFormat, 
outputFormat:org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat, 
**compressed:false**, numBuckets:-1, serdeInfo:SerDeInfo(name:null, 
serializationLib:org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, parameters:
{serialization.format=   , field.delim=

最佳答案

我找到了 this article我认为可以解决您的问题。 您应该尝试在表定义级别指定压缩编解码器的使用,无论是在创建表时还是使用 ALTER 语句。

在创建时:

 CREATE EXTERNAL TABLE lip_table (
                                    column1 string
                                  , column2 string 
                                 )
PARTITIONED BY (date string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY "\t"
STORED AS INPUTFORMAT "com.hadoop.mapred.DeprecatedLzoTextInputFormat"
          OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat"
LOCATION '/path/to/hive/tables/lip';

使用 ALTER(仅影响随后创建的分区):

ALTER TABLE lip_table
SET FILEFORMAT
    INPUTFORMAT "com.hadoop.mapred.DeprecatedLzoTextInputFormat"
    OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat";

http://www.mrbalky.com/2011/02/24/hive-tables-partitions-and-lzo-compression/

关于hadoop - 在 Hive 中描述扩展表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11784802/

相关文章:

hadoop - 什么是适合我索引和处理大数据的工具?

java - MapReduce中的分割方法

hive - oozie-输出数据超出其限制[2048]

sql - 引用计数(*)作为配置单元中的总数,稍后在同一选择语句中使用总数

python - Python Map Reduce Mr工作

hadoop - 如果这些 API 仅使用本地文件系统路径,如何在 hadoop 中使用第三方 API 从 hdfs 读取文件?

hadoop - 如何在Hive中处理XML文件

Java使用正则表达式提取字段分隔子字符串

apache-spark - Spark : aggregate versus map and reduce

sql - 使用 Ruby 生成 SQL 查询