hadoop - Hadoop 大数据中的复制因子

标签 hadoop mapreduce hdfs bigdata

假设我有 1TB 的数据并将复制因子设置为 2,那么它会生成 2 个副本,那么我的整个集群是否需要 3TB 的总空间 - 1TB 用于原始数据,2TB 用于副本,还是仅 2TB?

最佳答案

仅 2TB - 复制因子包括数据的所有副本。

关于hadoop - Hadoop 大数据中的复制因子,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28869597/

相关文章:

hadoop - Hadoop Map Reduce 中的 TSV 输入

java - mapreduce 中 map 任务中的 NullPointer 异常

hadoop - HDFS的并行提示

hadoop - 写入 hdfs 序列文件

hadoop - 如何在 Apache Pig 中加载具有参数化名称的文件

java - 如何清除namenode上的所有文件?

hadoop - 在没有 Cloudera 的情况下安装 Hue

java - 在 RIAK 上获取 MapReduce 结果(使用 Java 客户端)

hadoop - HDFS 中的文件数与 block 数

hadoop - 将Hadoop作业的结果添加到Hive Table