所有节点的 Hadoop 版本

标签 hadoop

Hadoop 的版本和安装位置是否必须在集群中的所有节点上完全相同?例如,如果我的主节点上的/usr/local/hadoop 中有 hadoop-0.18.2,版本和安装目录是否必须在所有数据节点上都相同?

最佳答案

是的,它们必须完全相同,否则您会遇到重大问题。

关于所有节点的 Hadoop 版本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16213533/

相关文章:

hadoop - mahout 在 hadoop 上的 kmeans 聚类错误

java - 无法运行HBase的示例-权威指南

apache-spark - 多次运行时在同一组数据上不同的Pyspark代码输出

hadoop - 在hadoop群集中,是否应在所有节点上安装 hive ?安装 pig

r - 无法打开客户端传输,JDBC 连接在 R 中被拒绝

hadoop - 生成Behemoth语料库时出错

python - pyspark:找不到本地文件

hadoop - 如果在 impala statestore 关闭时执行 DDL,为什么 Impala 查询会失败?

java - Yarn MapReduce 作业死于奇怪的消息

scala - 将 Spark Dataframe 中的一列转换为多列