ubuntu - Hadoop hdfs群集要在安装的磁盘而不是默认磁盘上配置

标签 ubuntu hadoop

操作系统:Ubuntu
我正在尝试在安装的磁盘而不是默认磁盘上配置hadoop(2.7.2)集群。装入的磁盘为“/ mnt / raid”,并已在hdfs-site.xml中执行以下配置

<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>

<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///mnt/raid/hdfs/namenode</value>
</property>

<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///mnt/raid/hdfs/datanode</value>
</property>

但是,当我启动dfs(start-dfs.sh)时,我看不到namenode和datanode。我无法弄清我所缺少的。

最佳答案

建议您在/ mnt / raid / hdfs中检查您的权限。如果它们不适合读写等,则名称节点和数据节点将不会启动。可以通过检查两个日志来确认此问题。如果确实需要更改权限$ cd / mnt / raid / hdfs,则需要更改$ chmod 777 *。另外,请确保存在/ mnt / raid / hdfs / datanode和/ mnt / raid / hdfs / namenode。希望能有所帮助。

关于ubuntu - Hadoop hdfs群集要在安装的磁盘而不是默认磁盘上配置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36042988/

相关文章:

python - Jupyter Notebook:检查hdfs目录内容

ubuntu - 创建使用 go 模块的服务

linux - Ubuntu/Debian 中的 Eclipse Kepler ==> CONTROL + C(复制)不起作用

linux - 我如何制作自己的包裹?

ubuntu - 连接到 MariaDb 时出现 MySql Workbench 错误。表 'performance_schema.user_variables_by_thread' 不存在

hadoop - 在 Apache Pig 中合并两个数据集

hadoop - 如何将节点添加到伪分布式hadoop设置中?

hadoop - 如何将HBase二级索引表用作MapReduce作业并在其中输入?

java - 无法在 Spark 中配置 ORC 属性

git - 在使用 sudo bash 运行的脚本中运行没有 sudo 的特定命令