hadoop - 获取快照导出失败

标签 hadoop mapreduce hbase

在 hbase 中导出快照时出现以下错误。我已经在那个位置搜索了 jar 。它在那里。在此之后我也尝试修改 jar 的权限,但它也没有用。

Snapshot export failed!
java.io.FileNotFoundException: File does not exist: hdfs://master1c.abc.def.com:8020/usr/lib/hbase/lib/hbase-protocol-0.98.0.2.1.7.0-784-hadoop2.jar
    at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:1128)
    at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:1120)
    at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
    at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1120)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:288)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:224)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestamps(ClientDistributedCacheManager.java:93)
    at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestampsAndCacheVisibilities(ClientDistributedCacheManager.java:57)
    at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:265)
    at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:301)
    at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:389)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1285)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1282)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:415)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1594)
    at org.apache.hadoop.mapreduce.Job.submit(Job.java:1282)
    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1303)
    at org.apache.hadoop.hbase.snapshot.ExportSnapshot.runCopyJob(ExportSnapshot.java:543)
    at org.apache.hadoop.hbase.snapshot.ExportSnapshot.run(ExportSnapshot.java:646)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
    at org.apache.hadoop.hbase.snapshot.ExportSnapshot.innerMain(ExportSnapshot.java:697)
    at org.apache.hadoop.hbase.snapshot.ExportSnapshot.main(ExportSnapshot.java:701)

最佳答案

我遇到了类似的问题,您可以尝试做的是,如果您在代码中捆绑了 core-site.xml,请将其删除。仅捆绑 hdfs-site.xml 和 hbase-site.xml。

可能的原因是 FS.defaultfs 设置为“hdfs://..”,因此它会尝试在该目录中工作。

关于hadoop - 获取快照导出失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41743133/

相关文章:

hadoop - hive 计数(*)无限期运行,并且数据预先填充了值

hadoop - MapReduce错误类型不匹配:我正在尝试编写一个程序以查找最大编号。从一个CSV文件中,但是我得到了 key 不匹配

hadoop - 我们可以从 HBase 表中获取所有列名吗?

hadoop - 在 Hbase 表中使用行计数器

java - 我如何编译包含不同类型的源代码?

java - 将动态值传递给 MapReduce 中的分区程序代码

hadoop - 如何解决原生 snappy 库不可用 : SnappyCompressor has not been loaded?

Javascript:将两个数组合并为单个对象而不丢失键顺序

hadoop - Hive与Hbase表中数据的比较

java - Spark 强制 log4j