hadoop - 运行 Hadoop wordcount 示例时找不到作业 token 文件

标签 hadoop cluster-computing word-count

我刚刚在一个小型集群上成功安装了 Hadoop。现在我正在尝试运行 wordcount 示例,但出现此错误:

****hdfs://localhost:54310/user/myname/test11
12/04/24 13:26:45 INFO input.FileInputFormat: Total input paths to process : 1
12/04/24 13:26:45 INFO mapred.JobClient: Running job: job_201204241257_0003
12/04/24 13:26:46 INFO mapred.JobClient:  map 0% reduce 0%
12/04/24 13:26:50 INFO mapred.JobClient: Task Id : attempt_201204241257_0003_m_000002_0, Status : FAILED
Error initializing attempt_201204241257_0003_m_000002_0:
java.io.IOException: Exception reading file:/tmp/mapred/local/ttprivate/taskTracker/myname/jobcache/job_201204241257_0003/jobToken
    at org.apache.hadoop.security.Credentials.readTokenStorageFile(Credentials.java:135)
    at org.apache.hadoop.mapreduce.security.TokenCache.loadTokens(TokenCache.java:165)
    at org.apache.hadoop.mapred.TaskTracker.initializeJob(TaskTracker.java:1179)
    at org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:1116)
    at org.apache.hadoop.mapred.TaskTracker$5.run(TaskTracker.java:2404)
    at java.lang.Thread.run(Thread.java:722)
Caused by: java.io.FileNotFoundException: File file:/tmp/mapred/local/ttprivate/taskTracker/myname/jobcache/job_201204241257_0003/jobToken does not exist.
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:397)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:251)
    at org.apache.hadoop.fs.ChecksumFileSystem$ChecksumFSInputChecker.<init>(ChecksumFileSystem.java:125)
    at org.apache.hadoop.fs.ChecksumFileSystem.open(ChecksumFileSystem.java:283)
    at org.apache.hadoop.fs.FileSystem.open(FileSystem.java:427)
    at org.apache.hadoop.security.Credentials.readTokenStorageFile(Credentials.java:129)
    ... 5 more

有什么帮助吗?

最佳答案

我刚刚解决了同样的错误——在我的 Hadoop 目录上递归设置权限没有帮助。正在关注Mohyt的推荐here ,我修改了core-site.xml(在hadoop/conf/目录下)去掉了我指定temp目录的地方(XML中的hadoop.tmp.dir ).在允许 Hadoop 创建自己的临时目录后,我运行时没有错误。

关于hadoop - 运行 Hadoop wordcount 示例时找不到作业 token 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10303169/

相关文章:

hadoop - 分布式缓存不起作用

hadoop - 通过 http 访问存储在 HDFS 中的视频

python - 无法将 pig 元组传递给 python UDF

ubuntu - 安装 hadoop 时出现“HADOOP_COMMON_HOME”错误

MySQL集群复制配置

cluster-computing - Vertx 聚类替代方案

Java 应用程序集群服务器和日志文件

python - Hadoop MapReduce Wordcount python执行错误

eclipse - IOException : Type mismatch in key from map: Text, 收到 LongWritable

python - 使用 for 循环计算所有文件的字数