hadoop - hdfs 数据已损坏。无法删除损坏的文件夹,因为它显示没有这样的文件或目录

标签 hadoop hdfs

我的 hdfs 数据损坏了。

在执行 fsck 时,我得到了以下结果 . /siva: 损坏 block blk_-1910702044505537827

/siva: 损坏 block blk_6483992593913191763

/siva:缺少 2 个总大小为 82009995 的 block B.Status:损坏 总尺寸:82009995 B 目录总数:8 文件总数:1 区 block 总数(已验证):2(平均区 block 大小 41004997 B)


损坏文件:1 缺失的方 block :2 缺失尺码:82009995 B 损坏 block :2


最少复制 block :0 (0.0 %) 过度复制 block :0 (0.0 %) 复制不足的 block :0 (0.0 %) 错误复制 block :0 (0.0 %) 默认复制因子:2 平均 block 复制:0.0 腐败 block :2 缺少副本:0 数据节点数:1 机架数量:1 FSCK 在 2 毫秒内结束于 Tue Feb 23 12:21:03 IST 2016

路径“/”下的文件系统已损坏

然后我尝试删除/siva 文件夹,但我得到了以下输出 rmr: 无法删除/siva: 没有那个文件或目录。

请多多支持

最佳答案

使用 hdfs fsck/-delete 删除损坏的文件。

关于hadoop - hdfs 数据已损坏。无法删除损坏的文件夹,因为它显示没有这样的文件或目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35570902/

相关文章:

hadoop - 只能复制到 0 个节点而不是 minReplication (=1)。有 4 个数据节点正在运行,并且没有节点被排除在此操作中

hadoop 检查路径是否有效,否则创建

hadoop - 在MapReduce中,同一个reduce任务如何在多台机器上执行?

hadoop - 如何在sqoop中指定多个条件?

hadoop - 为 hdfs namenode 禁用 Web UI

hadoop - 如何在 Hadoop 中的 Datanodes/Slavenodes 之间分发数据?

hadoop - 如何排除此 Hadoop 文件系统安装错误?

hadoop - HBase中单元格的理想大小是多少

hadoop - Pig/Hive中如何根据关键子集进行聚合?

linux - 访问 Hadoop Virtualbox 集群上的文件