java - HDFS API - 计算目录、文件和字节数

标签 java scala hadoop filesystems hdfs

如何在 Scala/Java 中以编程方式获取 HDFS 中的 DIR_COUNT、FILE_COUNT、CONTENT_SIZE FILE_NAME? (不通过壳牌)

val fileStatus = fileSystem.getFileStatus(new Path(path))
val fileByteSize = fileStatus.getLen

FileSystem API 似乎没有这些信息。我只能获取 1 个文件的文件大小(上面的代码)。但我没有得到每个目录的文件数和字节大小。

我正在寻找类似的行为:

hdfs dfs -count [-q] <paths>

计算所提供路径下的目录、文件和字节数

最佳答案

您可以使用FileSystem.listStatus方法获取有关给定 HDFS 目录中的文件和目录的信息。

您可以使用返回的FileStatus对象数组来计算总大小、文件数量等。

关于java - HDFS API - 计算目录、文件和字节数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34940682/

相关文章:

java - 两次之间如何间隔分钟?

java - 简单的 Java 口袋妖怪战斗模拟器

Scala/Slick 纯 SQL : retrieve result as a map

ScalaTest、Mockito、Guice 和 PartialMocking

scala - 修改/重写scala中的ErrorToken字符串

hadoop - Apache pig : Convert bag of tupple to single tupple

hadoop - 打开连接后,gremlin外壳挂起

java - 使用右移运算符屏蔽符号扩展 >>

java - 谁能告诉我运行 Spring 框架基本示例时出现的异常?

hadoop - Hive - 如何在命令行中显示 Hive 查询结果以及列名