hadoop hdfs namenode 格式不起作用

标签 hadoop

我是hadoop新手,我尝试在我的vm中安装hadoop3.0,在我配置hadoop之后,然后尝试:

hdfs namenode ‐format

得到输出:

2017-12-26 00:20:56,255 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = localhost/127.0.0.1
STARTUP_MSG:   args = [‐format]
STARTUP_MSG:   version = 3.0.0
STARTUP_MSG:   classpath = /opt/hadoop-3.0.0/etc/hadoop:/opt/hadoop-3.0.0/share/hadoop/common/lib/xz-1.0.jar:/opt/hadoop-3.0.0/share/hadoop/common/lib/kerby-util-1.0.1.jar:   .............   hadoop-yarn-applications-unmanaged-am-launcher-3.0.0.jar:/opt/hadoop-3.0.0/share/hadoop/yarn/hadoop-yarn-registry-3.0.0.jar
STARTUP_MSG:   build = https://git-wip-us.apache.org/repos/asf/hadoop.git -r c25427ceca461ee979d30edd7a4b0f50718e6533; compiled by 'andrew' on 2017-12-08T19:16Z
STARTUP_MSG:   java = 1.8.0_151
************************************************************/
2017-12-26 00:20:56,265 INFO namenode.NameNode: registered UNIX signal handlers for [TERM, HUP, INT]
2017-12-26 00:20:56,269 INFO namenode.NameNode: createNameNode [‐format]
Usage: hdfs namenode [-backup] | 
        [-checkpoint] | 
        [-format [-clusterid cid ] [-force] [-nonInteractive] ] | 
        [-upgrade [-clusterid cid] [-renameReserved<k-v pairs>] ] | 
        [-upgradeOnly [-clusterid cid] [-renameReserved<k-v pairs>] ] | 
        [-rollback] | 
        [-rollingUpgrade <rollback|started> ] | 
        [-importCheckpoint] | 
        [-initializeSharedEdits] | 
        [-bootstrapStandby [-force] [-nonInteractive] [-skipSharedEditsCheck] ] | 
        [-recover [ -force] ] | 
        [-metadataVersion ]

2017-12-26 00:20:56,365 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1
************************************************************/

我配置 hdfs-site.xml 如下:

<configuration>

  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>

  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/home/dan/hadoop_data/namenode</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/home/dan/hadoop_data/datanode</value>
  </property>

</configuration>

当我启动 namenode 服务时,它失败并记录告诉: 2017-12-26 00:03:41,331 信息 org.apache.hadoop.util.ExitUtil:以状态 1 退出:java.io.IOException:NameNode 未格式化。 2017-12-26 00:03:41,337 信息 org.apache.hadoop.hdfs.server.namenode.NameNode:SHUTDOWN_MSG:

谁能告诉我解决这个问题?

提前致谢!

最佳答案

解决方案一:

有时它会发生。首先,停止所有服务并转到您的 current 目录并删除 current 目录。 Hadoop current 目录也存储所有日志文件。通过删除 current 目录重新启动所有服务。

停止所有服务:

$HADOOP_HOME/sbin/stop-all.sh

停止所有服务后,您应该通过以下命令格式化Namenode。

格式名称节点:

$HADOOP_HOME/bin/hadoop namenode –format

现在再次通过以下命令启动所有服务。

启动所有服务:

$HADOOP_HOME/sbin/start-all.sh

解决方案 2:

有时 Namenode 会进入安全模式。您需要通过以下命令离开安全节点。

$HADOOP_HOME/bin/hdfs dfsadmin -safemode leave

关于hadoop hdfs namenode 格式不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47975964/

相关文章:

apache-spark - 用于存储有关表,其源和DWH的ETL信息的工具

python - 在 hadoop 和 yarn 上安装 pyspark

python - 如何在 bash 中将值插入到 hive 表中?

database - 如何处理大数据数据集市/事实表? (2.4 亿行)

python - 用 dill 序列化 SWIG 扩展

Mesos 上的 Hadoop 失败并显示 "Could not find or load main class org.apache.hadoop.mapred.MesosExecutor"

hadoop 2.6.0 和 avro

hadoop大数据集

macos - 在Mac OS的Hive中创建表时失败,错误localhost:9000在连接时失败

hadoop - 与 Map-Reduce 合并。一个数据集中的多个键