hadoop hdfs 指向文件 :///not hdfs://

标签 hadoop hdfs cloudera

所以我在 CentOS 5 上通过 Cloudera Manager cdh3u5 安装了 Hadoop。当我运行 cmd 时

hadoop fs -ls/

我希望看到 hdfs://localhost.localdomain:8020/的内容

但是,它返回了file:///

的内容

现在,不用说,我可以通过

访问我的hdfs://

hadoop fs -ls hdfs://localhost.localdomain:8020/

但是当安装Accumulo等其他应用时,accumulo会自动检测file:///中的Hadoop Filesystem

问题是,有没有人遇到过这个问题,你们是如何解决的?

我看过HDFS thrift server returns content of local FS, not HDFS ,这是一个类似的问题,但没有解决这个问题。 另外,我在使用 Cloudera Manager cdh4 时没有遇到这个问题。

最佳答案

默认情况下,Hadoop 将使用本地模式。您可能需要在 $HADOOP_HOME/conf/core-site.xml< 中将 fs.default.name 设置为 hdfs://localhost.localdomain:8020//.

为此,您将其添加到 core-site.xml:

 <property>
  <name>fs.default.name</name>
  <value>hdfs://localhost.localdomain:8020/</value>
</property>

Accumulo 混淆的原因是因为它使用相同的默认配置来确定 HDFS 的位置......并且它默认为 file://

关于hadoop hdfs 指向文件 :///not hdfs://,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12391226/

相关文章:

java - 生成唯一的客户 ID/在配置单元中插入唯一的行

python - 通过 Python 连接到 Cloudera 集群

java - 使用org.apache.hadoop DistributedFileSystem时,线程 “main” java.lang.NullPointerException中的异常

hadoop - 如何从 Hadoop 中的 MapFile 中删除条目

hadoop - M/R 作业提交失败,错误为 : Could not find Yarn tags property > (mapreduce. job.tags)

hadoop - Cloudera 的 CDH4 WordCount hadoop 教程 - 问题

hadoop - 记录hadoop map进程

java - Hadoop:如何将多维数组写入 HDFS?

eclipse - Hive JDBC Web 应用程序中的 "Driver not capable"异常

用于 hive/hadoop 流的 Python 打包