hadoop - 如何将 -text HDFS 命令的输出复制到另一个文件中?

标签 hadoop hdfs sequencefile

有什么方法可以使用HDFS命令将hdfs文件的文本内容复制到另一个文件系统中:

 hadoop fs -text /user/dir1/abc.txt

我可以使用 -cat 或任何方法将 -text 的输出打印到另一个文件中吗?:

 hadoop fs -cat /user/deepak/dir1/abc.txt 

最佳答案

正如 documentation 中所写您可以使用hadoop fs -cp复制hdfs中的文件。您可以使用hadoop fs -copyToLocal将文件从hdfs复制到本地文件系统。如果您想将文件从一个 HDFS 复制到另一个 HDFS,请使用 DistCp tool .

关于hadoop - 如何将 -text HDFS 命令的输出复制到另一个文件中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25439535/

相关文章:

apache-spark - 在 PySpark 中获取序列文件格式文件的 HDFS 文件路径

java - mapreduce.reduce.shuffle.memory.limit.percent、mapreduce.reduce.shuffle.input.buffer.percent 和 mapreduce.reduce.shuffle.merge.percent

exception - 如何在 Oozie 中获取有关已终止作业的更具体的错误信息

hadoop - Hbase 0.92.1 二级索引示例

Hadoop HDFS - 无法为文件提供 +x 权限

hadoop - 如何在Flink中使用Hadoop的MapFileOutputFormat?

java - hadoop mapreduce : java. lang.UnsatisfiedLinkError : org. apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy()Z

apache-spark - 使用 pyspark 3.0.0 和 Hive 1.1.0 时,Hive 查询失败,错误代码为 "Unable to fetch table test_table. Invalid method name: ' get_table_req'"

datetime - Apache Pig:将当前日期和时间作为常数添加到每个生成的记录中

java - 尝试使用 Hive streaming api 建立连接时,hive 暂存目录的权限被拒绝