hadoop - 更改 hadoop 中的 block 大小后会发生什么

标签 hadoop hdfs cloudera

我知道如何更改 hadoop 中的 block 大小。更改 block 大小后会发生什么,namenode 如何将 perivous datanode 更改为当前大小。如果我的集群非常大,并且我在以前的数据节点上的数据节点上提交作业,那仍然不会取消对当前大小的更改。这是如何由名称节点管理的。

最佳答案

什么都没有发生。事实上, block 大小是单个文件的属性。您在配置中定义的是默认值。您可以在 HDFS 中放置或创建文件时指定 block 大小。该属性作为名称节点元数据的一部分与文件的元数据一起存储。如果未指定任何内容,则使用默认值。

当访问文件时,会使用文件的 block 大小属性并对文件进行相应的处理。这是根据所选的 InputFormat 完成的。

底线是多个文件可以存在于具有不同 block 大小的单个 HDFS 集群中。您在配置中定义的是默认值。如果您更改它,它将用于未指定 block 大小的任何新创建操作。希望这能澄清。

关于hadoop - 更改 hadoop 中的 block 大小后会发生什么,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20186074/

相关文章:

hadoop - 使用 Cloud9 和 hadoop 提取维基百科文章文本

java - Hbase 调用 HTable 挂起

csv - 如何使用 header 将 Hive 查询的结果保存到文件系统?

hadoop - Spark Scala如何执行

hadoop - 有没有办法将节点添加到正在运行的 Hadoop 集群?

hadoop - Hive CLI 无法从另一个表创建表

mysql - Hive 中的增量更新

java - Hadoop 文件系统中的通配符列出 API 调用

hadoop - 无法删除HDFS丢失/损坏的文件

apache-spark - 尝试从Spark查询HBase上的数据时出现NoSuchMethodError