hadoop - hadoop_starting daemon_no文件或目录错误

标签 hadoop daemon microsoft-distributed-file-system

usr / local / hadoop / sbin / hadoop-daemons.sh:无此类文件或目录
我在运行 start-dfs.sh时收到此错误消息。
希望有人给我解决方案,并提供正确的步骤。

最佳答案

  • 转到usr/local/hadoop/sbin查看是否有任何名为hadoop-daemons.sh的文件
    1.1如果退出,则给予文件适当的权限以运行它。
    1.2如果没有,则您的hadoop安装文件夹丢失了它。请重新安装。
  • 关于hadoop - hadoop_starting daemon_no文件或目录错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35823936/

    相关文章:

    hadoop - Hortonworks Hive用户名密码配置

    linux - 以非 root 用户身份运行的系统守护进程的 PID 文件的首选位置

    powershell - 带和不带引号的Powershell奇数返回DFSR卷路径

    Java - 不兼容的类型 : Object cannot be converted to type variable (Stacks in DFS)

    hadoop - 如何在hadoop mapreduce中消除重复的文件名?

    mongodb - 用apache-spark连接mongodb时如何查询

    C守护程序 sleep ()

    daemon - JGit:如何使用 InMemoryRepository 来了解 dfs 实现

    mysql - hive 中的分区

    docker - 如何在Centos的生产环境中运行docker容器?