hadoop - HDFS数据导出错误:只能复制到0个节点,而不是1个

标签 hadoop qubole

在Qubole中开始成功将数据导出到MySQL后,成功运行了Hive查询后,出现以下错误(在我的日志文件中):

org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /tmp/mapred/system/CAR/libjars/tmp_clickimpressiontracking.jar4047410322917561880 could only be replicated to 0 nodes, instead of 1

最佳答案

当DFS复制因子设置为2并且此时群集中只有一个(从属)节点时,已经看到此问题。分享更多细节可以帮助我们获得更好的答案。在支持门户上提到的支持电子邮件ID上添加注释,并带有特定的命令ID等,我们可以看看。

-Venkat(Qubole支持)

关于hadoop - HDFS数据导出错误:只能复制到0个节点,而不是1个,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35872875/

相关文章:

java - Map-Reduce 程序 : Mapper not behaving as expected

java - 在 Sqoop 的情况下,映射器输出如何写入 HDFS?

hadoop - 如何在 hdfs 命令上计算文件中的行数?

hadoop - 从不同目录调用 hive cli 时找不到表

java - 导致Hadoop映射中出现随机播放错误的大文件减少

hadoop - 自动缩放 EMR - 是否需要?我应该只使用 EC2 吗?我应该只使用 Qubole 吗?

scala - 将 Spark DataFrame 数据划分为单独的文件

python - 如何通过 Python 访问 Hive?