java - 每次我重新启动时,我的 PC namenode 都没有启动

标签 java hadoop hdfs vmware

我正在使用 VMware 在 Ubuntu 上运行我的 hadoop。 hadoop 的版本是 2.x,我在重启电脑时遇到了问题。每次我重新启动电脑时,我都必须格式化 namenode,否则会出现如下错误。

Error: Call From ubuntu/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused.

hdfs-site.xml

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/tmp/hadoopTemp</value>
        </property>
</configuration>

核心站点.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

如果有任何建议,请告诉我。

谢谢, 赛

最佳答案

您必须在机器重启后启动名称节点。您可以通过将 namenode start 命令添加到机器启动命令来实现。 更多详情请引用本文https://unix.stackexchange.com/questions/35303/run-a-sh-file-on-machine-boot-up .

关于java - 每次我重新启动时,我的 PC namenode 都没有启动,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34015839/

相关文章:

java - 由于 cloudera quickstart vm 中的 yarn 容器错误,Hipi 平均像素数程序失败

apache-spark - Spark 分区如何对 HDFS 中的文件进行操作?

hadoop - 50 个节点 hadoop passphraseless

Hadoop:在 HDFS 中连接 CSV 文件的工具?

Java - 字符串数组上的空指针异常

java - nexus 3 是否仍支持 osgi bundle 存储库 (obr)?

hadoop - 为 hadoop 设计 "mapper"和 "reducer"函数的功能?

r - Hadoop 和 R 入门

java - 在数组中使用循环和随机字符java

java - 为什么我必须输入两次数字?为什么第一个数字只给出0?