hadoop - 服务器java.io.IOException上的IP更改后:copy.getGenerationStamp()

标签 hadoop hdfs

我正在使用水槽将数据加载到HDFS。最近服务器上发生了IP更改,因此之后我根本无法启动从属服务器。我在服务器和数据节点上有很多数据,因此重新格式化不是一个选择。即使主节点调用从属节点并尝试启动从属节点也不会启动。以下是我看到的异常,因为从属服务器仍在尝试引用主服务器的旧IP:

java.io.IOException: replica.getGenerationStamp() < block.getGenerationStamp()
WARN org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol: Failed to obtain replica info for block (=BP-967573188-192.168.XX.XX-1413284771002:blk_1073757987_17249) from datanode (=192.168.XX.XX:50010)
java.io.IOException: replica.getGenerationStamp() < block.getGenerationStamp(), block=blk_1073757987_17249, replica=ReplicaWaitingToBeRecovered, blk_1073757987_17179, RWR
  getNumBytes()     = 81838954
  getBytesOnDisk()  = 81838954
  getVisibleLength()= -1
  getVolume()       = /var/hadoop/data/current
  getBlockFile()    = /var/hadoop/data/current/BP-967573188-192.168.XX.XX-1413284771002/current/rbw/blk_1073757987
  unlinked=false
 at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.initReplicaRecovery(FsDatasetImpl.java:1613)
 at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.initReplicaRecovery(FsDatasetImpl.java:1579)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.initReplicaRecovery(DataNode.java:2094)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.callInitReplicaRecovery(DataNode.java:2105)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.recoverBlock(DataNode.java:2173)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.access$400(DataNode.java:140)
 at org.apache.hadoop.hdfs.server.datanode.DataNode$2.run(DataNode.java:2079)
 at java.lang.Thread.run(Thread.java:745)

我已经更新了配置文件/ etc / hosts,但是没有任何效果。请建议

最佳答案

在hadoop conf目录的slaves文件中更新datanode的新IP地址。

问候
Jyoti Ranjan Panda

关于hadoop - 服务器java.io.IOException上的IP更改后:copy.getGenerationStamp(),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27480519/

相关文章:

python - 在 Hadoop Streaming 中生成单独的输出文件

hadoop - HDFS 复制 - 数据存储

hadoop - HDFS fsck 命令输出

sql - 如何将文件从桌面加载到 Hive

hadoop - PIG - 加载错误继续

hadoop:定义 map/reduce 任务属性

r - Sparklyr copy_to 失败

使用 spark-submit 时出现 Hadoop 错误

java - Gobblin:java.lang.ClassNotFoundException:org.apache.gobblin.source.extractor.extract.jdbc.MysqlSource

hadoop - 在 spark submit 中将 hdfs 路径作为环境变量传递