Hadoop:文件覆盖问题

标签 hadoop hdfs

无法使用以下命令覆盖 HDFS 上的文件

hadoop fs -put -f quicktechie.txt Employee

错误信息说目标文件已经存在。

我的命令有什么问题吗?

最佳答案

您不能覆盖 HDFS 中的文件。它纯粹是在 Write Once Read Many 上工作。所以如果你想覆盖一个文件,首先你必须删除旧文件。

关于Hadoop:文件覆盖问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40368021/

相关文章:

azure - Azure HDInsight链式Mapreduce:输入路径不存在

Hadoop - 输入目录问题

hadoop - webhdfs 总是重定向到本地主机 :50075

amazon-web-services - 需要有关数据管道创建的设计输入

hadoop - Hadoop Datanode Xcievers错误

hadoop - 如何将HAWQ中的数据推送到GREENPLUM中?

java - 使用Java以编程方式读取存储在HDFS中的文本文件的内容

hadoop - 计算脂肪32和HDFS的最大体积大小

hadoop - 如何在 Hive 中加载分布式数据?

apache-spark - 如何通过分布式方法压缩hdfs中的大量文件?