hadoop - 使用 pig 在hbase中批量加载

标签 hadoop hbase

我在 HDFS 中有一个日志文件需要解析并放入 Hbase 表中。

我想使用 PIG 来做到这一点。

我该怎么做。Pig 脚本应该解析日志,然后放入 Hbase?

最佳答案

pig 脚本是(假设制表符是您在日志文件中的数据分隔符):

A= load '/home/log.txt' using PigStorage('\t') as (one:chararray,two:chararray,three:chararray,four:chararray);

STORE A INTO 'hbase://table1' USING org.apache.pig.backend.hadoop.hbase.HBaseStorage('P:one,P:two,S:three,S:four');

关于hadoop - 使用 pig 在hbase中批量加载,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22032495/

相关文章:

hadoop - 将sas数据导入hadoop

hadoop - 对大型动态数据集进行分析查询

hadoop - 如何将 Kafka 主题加载到 HDFS?

hadoop - Hadoop-需要帮助以了解处理步骤

shell - 创建Hive表的Shell脚本

hadoop - 重命名 PIG 输出的部分文件

hadoop - PIG无法理解hbase表数据

hadoop - hbase.master.port 以编程方式覆盖?

java - 客户端能够连接到 Hbase DB,而无需在类路径中包含 hbase-site.xml

java - 将 long 转换为 String -乱码字符串