Hadoop 3.0.3 worker 文件与奴隶

标签 hadoop

在/etc/hadoop 文件夹中,您必须创建的 workers 文件或 slaves 文件有区别吗?同样对于 3.0.3,我还需要为 namenode 创建一个 masters 文件吗?

最佳答案

是的,不再使用奴隶。在纠结数据节点启动的几个小时后,我发现“workers”文件是你应该配置的,而不是从属文件。

如果你这样做,它会被忽略。至少对我来说。将slave的内容复制给worker即可。它奏效了。

希望这对您有所帮助。

关于Hadoop 3.0.3 worker 文件与奴隶,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51271404/

相关文章:

hadoop - 从其他 Pig 脚本调用 Pig Latin 脚本

hadoop - HBase 0.90.6的“hbase.client.scanner.caching”默认值?

hadoop - Hadoop Yarn容器配置(CPU,内存...)

hadoop - 从 Presto HIVE_CURSOR_ERROR 中的表中获取数据时出错

Python 和 MapReduce : beyond basics -- how to do more tasks on one database

maven - 如何使用 Mahout 成功运行 kmeans 集群(尤其是获得人类可读的输出)

java - 设置多节点集群来运行mapreduce程序

java - 从jsp servlet运行mapreduce作业

hadoop - 一些数据节点在清除 HDFS 后仍然显示使用的 block 池

python - 如何从hdfs读取文件