hadoop - HDFS 上的 lsof 命令

标签 hadoop hive hdfs

我想知道某个文件当前是否正在 HDFS 上使用或打开。

我正在尝试使用以下命令,但它不起作用。有人可以给我正确的命令来执行此操作吗?

hadoop fs -lsof  /apps/hive/warehouse/db/table/.hive-staging_*

最佳答案

没有这样的命令(参见 list of available commands ),但您可以使用 hdfs fsck 检查 HDFS 中的不一致性。与选项 -openforwrite 一起列出卡在 OPENFORWRITE 状态的文件

hdfs fsck <your_hdfs_path> -files -blocks -locations -openforwrite

关于hadoop - HDFS 上的 lsof 命令,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44421899/

相关文章:

java - maven intellij java mapreduce 测试程序

java - 根据单词的长度在reducer上分类

linux - 如何在 linux 的 hdfs super 组中添加用户?

hadoop - 由于安全模式打开,无法从 dfs 中删除文件

hadoop - 如何限制Hive作业中的映射器数量?

hadoop - Pig:用于将单个文件中的记录类型写入多个输出

hive - 在 Hive 中将日期从字符串转换为日期类型

bash - 通过添加环境变量执行 Shell 脚本

hadoop - 基于时间的目录结构Apache Drill

amazon-web-services - EC2(持久)HDFS 和 EMR( transient )HDFS 如何通信