java - 如何在现有系统中实现Hadoop框架

标签 java hadoop mapreduce hbase hdfs

我计划在基于Web的应用程序中实现Hadoop框架。但是我只是将其托管在本地主机中。我打算将mapreduce和hdfs实现为分布式文件系统。问题是,我要做的第一步是什么?我应该从什么开始呢?我对Hadoop框架进行了深入研究。关于它的工作原理,请尝试从Internet上下载wordcount示例。

最佳答案

Hadoop是用于大规模数据处理的分布式框架。您的声明
“我正在计划将mapreduce和hdfs实现为分布式文件系统。”是错的。

Map reduce是一种可以在分布式文件系统上使用的编程模型。 HDFS是hadoop分布式文件系统。在hadoop框架中一起设置了HDFS和MapReduce。

使用hadoop可以脱机进行数据处理,这是批处理。因此,直接在Web应用程序中可能没有用。您可以做的是,将后端数据库作为Web应用程序的HBase。 Hbase是在hadoop之上运行的数据仓库/数据库。

如果要开始的第一步是设置计算机集群。可以从5个节点开始。否则,我会推荐云解决方案。去Amazon EMR

让我知道这是否有帮助!

关于java - 如何在现有系统中实现Hadoop框架,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28304034/

相关文章:

java - MapReduce到Spark

hadoop - 使用用户定义的类链接作业

java - Hadoop 映射减少 : Algorithms

hadoop - 是否可以使用 docker 启动多物理节点 hadoop 集群?

hadoop - 运行 Hadoop MapReduce,是否可以调用 HDFS 外部的外部可执行文件

Java,当条件不满足时暂停线程执行

bash - 如何从 shell 中的最大日期中提取最后 7 天的行

java - Android:内存友好的图像字节修改

java - Spring Integration - 如何调试 'Dispatcher has no Subscribers'?

java - Android 4.4 SDK 更新后 android-support-v7-appcombat jar 不匹配和应用程序崩溃