java - Hbase 扫描与 Mapreduce 的动态计算

标签 java performance hadoop mapreduce hbase

我需要计算 HBase 表的聚合。

假设我有这个 hbase 表:'metadata' 列族:M 列:n

这里的元数据对象有一个字符串列表

类元数据 { 列出标签;

我需要计算我考虑使用 mapreduce 或直接扫描 hbase 的标签的数量。

结果必须即时返回。那么在这种情况下我可以使用哪个呢?扫描 hbase 并计算聚合或 mapreduce?

Mapreduce 最终将扫描 hbase 并计算计数。

使用这两种方法的优缺点是什么?

最佳答案

我怀疑你不知道HBase的优缺点,它不适合计算大型数据集的实时聚合。

首先让我们说 MapReduce 本身是一个计划作业,您将无法即时返回响应,预计任务跟踪器初始化作业的时间不少于 15 秒。

最后,MapReduce 作业将做完全相同的事情:HBase 扫描,立即执行扫描与 MapReduce 之间的区别只是并行化和数据局部性,这在您拥有数百万/数十亿的数据时表现出色行。如果你的查询只需要读取几千个连续的行来聚合它们,当然,你可以只进行一次扫描,它可能会有一个可接受的响应时间,但对于更大的数据集,在查询时就不可能做到这一点.

HBase 最适合处理大量的原子读写,这样一来,无论您需要多少预聚合计数器或您将收到多少请求,您都可以实时维护这些聚合:通过适当的行键设计和拆分策略,您可以扩展以满足需求。

将其视为单词计数,您可以将所有单词存储在一个列表中,并在请求时在查询时对它们进行计数,或者您可以在插入时处理该列表并存储每个单词在其中使用的次数文档,作为全局计数器,并在每日、每月、每年、每个国家/地区、每个作者的表格(甚至家庭)中。

关于java - Hbase 扫描与 Mapreduce 的动态计算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27064373/

相关文章:

java - 为用户和用户组提供安全访问的 Web 应用程序

java - 如何确定编译器如何优化代码?

java - 为什么我的 Java 输出字符串最后以 % 字符结尾?

java - Java 中的 Scala 对象

r - 将重复值合二为一后连接两列的更好/更快的方法?

javascript - Jquery - 使用多个选择器或每个选择器更有效

hadoop - 使用 mahout : difference between running a . jar 并输入控制台指令

r - 在 R 和 Hive (Hadoop) 数据库之间建立连接

java - Hadoop Mapreduce 多个输入文件

java - java.lang.NoSuchMethodException : Unknown property 'Centres' 的补救措施