Hadoop 启动-dfs.sh 失败

标签 hadoop ulimit

我是 Hadoop 新手,我按照 instruction 配置集群

配置完成后,我使用 /bin/start-dfs.sh 启动 HDFS 守护进程

我检查日志文件 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out 以确保运行,但我只看到如下文本:

ulimit -a for user deploy
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 63524
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 4096
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 16384
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

希望有人能帮忙吗?

最佳答案

@Minh,您正在查看 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.out,而不是查看 /home/deploy/hadoop/libexec/../logs/hadoop-deploy-datanode-slave1.log。 同样,/home/deploy/hadoop/libexec/../logs/ 文件夹中还有其他日志文件。

让我详细解释一下 .log 和 .out 文件。

logs 文件夹中的一些文件以.log 结尾,而另一些以.out 结尾。 .out 文件仅在守护进程启动时写入。 守护进程成功启动后,.out 文件将被截断。 相比之下,所有日志消息都可以在 .log 文件中找到,包括发送到 .out 文件的守护程序启动消息。

关于Hadoop 启动-dfs.sh 失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25227310/

相关文章:

hadoop - Hadoop-DataNode和节点管理器未运行

mysql - Hive:计算字符串子字符串中的非零字符

linux - 为什么 ulimit 不能成功限制常驻内存,如何限制?

linux - 我无法在/etc/security/limits.conf 中分配 100KB 和 "fileuser - memlock unlimited"

linux - 监视linux服务器套接字或文件

linux - Linux 上的最大打开文件限制是多少?

ubuntu - 权限被拒绝 : u'/opt/cloudera/parcel-cache/CDH-5. 3.3-1.cdh5.3.3.p0.5-precise.parcel.part'

java - Hadoop 多输出

hadoop - 在 Cassandra 数据库中跨集群复制数据

Docker 容器不从主机继承 ulimit