hadoop - 如何在HDFS群集上增加dfs的空间

标签 hadoop yarn hadoop2

我们有4个datanode HDFS集群...每个数据节点上都有大量可用空间,大约98gb ...但是当我查看datanode信息时..
它仅使用约10GB ...

DataNode Information

如何使它使用所有98gb的内存,而不会耗尽图像中显示的空间

这是名称节点上的hdfs-site.xml

<configuration>

    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>

    <property>
        <name>dfs.name.dir</name>
        <value>file:///test/hadoop/hadoopinfra/hdfs/namenode</value>
    </property>

    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:///tmp/hadoop/data</value>
    </property>

    <property>
        <name>dfs.datanode.du.reserved</name>
        <value>2368709120</value>
    </property>

    <property>
        <name>dfs.datanode.fsdataset.volume.choosing.policy</name>
        <value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value>
    </property>

    <property>
        <name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction</name>
        <value>1.0</value>
    </property>

</configuration>

这是数据节点下的hdfs-site.xml
<configuration>

    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>

    <property>
        <name>dfs.data.dir</name>
        <value>file:///test/hadoop/hadoopinfra/hdfs/datanode</value>
    </property>

    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:///tmp/hadoop/data</value>
    </property>

    <property>
        <name>dfs.datanode.du.reserved</name>
        <value>2368709120</value>
    </property>

    <property>
        <name>dfs.datanode.fsdataset.volume.choosing.policy</name>
        <value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value>
    </property>

    <property>
        <name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction</name>
        <value>1.0</value>
    </property>

</configuration>

98GB位于/ test

enter image description here

如果我们错过了配置中的任何内容,请告知我们

最佳答案

查看hdfs-site.xml中的dfs.datanode.data.dir。该属性将控制可用于存储DFS块的所有目录。

Documentation Link

因此,在您的计算机上执行“df -h”,它应列出构成98 GB的所有安装点。然后,在每个安装点中,确定可用于存储HDFS块数据的目录,并在以dfs.datanode.data.dir分隔的hdfs-site.xml逗号下添加那些目录。然后重新启动namenode和所有数据节点服务。

从您编辑的帖子中:

   <property>
        <name>dfs.data.dir</name>
        <value>file:///test/hadoop/hadoopinfra/hdfs/datanode</value>
    </property>

不应为 file:// 。它应该看起来像:
   <property>
        <name>dfs.data.dir</name>
        <value>/test/hadoop/hadoopinfra/hdfs/datanode</value>
    </property>

其他属性相同。

关于hadoop - 如何在HDFS群集上增加dfs的空间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41708534/

相关文章:

java - 在WildFly Servlet上从动态Web项目运行Hadoop MapReduce作业

hadoop - 在hadoop中排序sequenceFile时出现classcastException?

hadoop - 使用什么.. HDFS 上的 Impala 或 Hbase 上的 Impala 或只是 Hbase?

hadoop - 我可以提交包含多个配置文件的 oozie 作业吗?

apache-spark - Spark结构化流作业停留了数小时而没有被杀死

yarn - 如何在YARN上正常停止Spark Streaming应用程序?

scala - 执行器占用的内存超出了定义

java - 哪个类将hadoop源代码中的mapreduce作业连接到其数据集?

hadoop - 如何从mapreduce中的reducer输出中删除r-00000扩展

hadoop - 在将数据加载到HDFS/Hive中之前进行架构验证/验证