hadoop - 在 HDP 集群上安装 Snappy

标签 hadoop compression hbase hortonworks-data-platform snappy

我有一个使用 Hortonworks Data Platform 2.6.1 构建的 HBase 集群。 现在我需要对 HBase 表应用 Snappy 压缩。

在没有安装 Snappy 的情况下,我执行了压缩测试并获得了成功输出。我使用了以下命令。

hbase org.apache.hadoop.hbase.util.CompressionTest file:///tmp/test.txt snappy

hbase org.apache.hadoop.hbase.util.CompressionTest hdfs://hbase.primary.namenode:8020/tmp/test1.txt snappy

两个命令都得到了以下响应。

2017-10-30 11:25:18,454 INFO  [main] hfile.CacheConfig: CacheConfig:disabled
2017-10-30 11:25:18,671 INFO  [main] compress.CodecPool: Got brand-new compressor [.snappy]
2017-10-30 11:25:18,679 INFO  [main] compress.CodecPool: Got brand-new compressor [.snappy]
2017-10-30 11:25:21,560 INFO  [main] hfile.CacheConfig: CacheConfig:disabled
2017-10-30 11:25:22,366 INFO  [main] compress.CodecPool: Got brand-new decompressor [.snappy]
SUCCESS

我也在路径/usr/hdp/2.6.1.0-129/hadoop/lib/native/中看到以下库。

libhadoop.a 
libhadooppipes.a 
libhadoop.so 
libhadoop.so.1.0.0 
libhadooputils.a 
libhdfs.a 
libsnappy.so 
libsnappy.so.1 
libsnappy.so.1.1.4

HDP 默认支持 snappy 压缩吗?

如果可以,我可以在不安装 Snappy 的情况下压缩 HBase 表吗?

最佳答案

Without installing Snappy, I executed the Compression Test and I got a success output.

Ambari 在集群安装期间安装了它,所以是的,这些命令正在运行

Does HDP support snappy compression by default?

是的,HDP-UTILS 存储库提供了 snappy 库。

can I compress the HBase tables without installing Snappy?

Hbase提供了其他压缩算法,所以是

关于hadoop - 在 HDP 集群上安装 Snappy,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47029697/

相关文章:

shell - 如何在 hbase shell 中指定一个带有选项卡的行键?

sql - Hive分区与多表,有什么区别?

python - 将 Shutil.make_archive 与 zipfile.ZIP_STORED 一起使用吗?

.net - PowerShell:使用 System.IO. Compression.FileSystem 将文件移动到 zip

javascript - Tomcat不压缩js文件

apache - HRegionServer 显示 "error telling master we are up"。显示套接字异常 : Invalid argument

Hbase HDFS 集成 - Hbase Master 未启动

hadoop - org.apache.avro.AvroTypeException失败的Avro Mapreduce作业

hadoop - TaskTracker使用本地库

scala - 如何捕获 Spark 异常并做某事?