hadoop - 文件损坏时的 HDFS 行为

标签 hadoop

我在 cloudera 考试中找到样题,我相信答案是 D。同意 ??

问题 1 您使用 hadoop fs -put 命令将 sales.txt 添加到 HDFS。该文件足够小,可以放入一个 block 中,该 block 被复制到集群中的三个节点。在这些节点之一发生故障后,集群何时以及如何处理复制?

  • A.集群将不会尝试重新复制此 block 。
  • B.该 block 将立即重新复制,并且集群上的所有其他 HDFS 操作将在此过程中停止。
  • C.在管理员手动删除并重新创建文件之前,该 block 将保持复制不足状态。
  • D.在 NameNode 根据从 DataNode 接收到的 block 报告确定其复制不足后,该文件将自动重新复制。

最佳答案

是的。它是 D。当 Namenode 确定数据节点不再处于事件状态时,它将使具有给定 block 的数据节点之一复制到另一个节点。

关于hadoop - 文件损坏时的 HDFS 行为,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17435871/

相关文章:

java - 通过汇总警告来调试Pig UDF

hadoop - HBASE中的SingleColumnValueFilter给出错误

hadoop - 当我尝试将hadoop jar运行到远程节点时出现错误

bash - 如何使脚本处理不同的文件?

java - Hadoop 序列文件大小

hadoop - 如何获取特定配置单元查询的 cpu、内存和 IO 使用情况?

java - 在不创建 jar 文件的情况下运行 hadoop 作业

hadoop - 组合器在哪里组合映射器输出 - 在 Map 阶段或 Map-reduce 作业中的 reduce 阶段?

hadoop - 生成素数的并行算法(可能使用 Hadoop 的 map reduce)

hadoop - 创建外部表时删除Amazon S3上的文件夹