我必须制作大样本数据(比如 1TB)并且有大约 20GB 的文本文件。
所以我尝试只复制 50 次以使其更大,但每次我尝试 hadoop fs -cp 命令时,我的一些数据节点都会死掉。
我听说在 UNIX 中,删除大数据时可以使用 SHRINK 安全地从磁盘中删除数据。 hadoop中有类似的东西来复制大数据吗?
简而言之,有什么方法可以在 hadoop 集群内安全地复制大数据?
还是我必须修改一些配置文件?
最佳答案
试试distcp。它在后台运行 MR 作业以复制数据,使我们能够利用 Hadoop 提供的并行性。
关于hadoop - (HDFS) 如何在集群内安全复制大数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18393740/