hadoop - 如何通过NFS网关挂载特定的hadoop文件夹

标签 hadoop hdfs nfs

我试图按照此guide中提到的步骤为hadoop集群设置NFS网关。我遵循了here的步骤。我可以使用文档中提到的命令挂载/:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/ $mount_point
但是我想像这样在我的HDFS中挂载一个文件夹:
mount -t nfs -o vers=3,proto=tcp,nolock $server:/$dir $mount_point
但这从挂载命令给出以下错误:

mount.nfs: mounting 10.33.37.220:/dir failed, reason given by server:

No such file or directory


在NFS网关中,出现以下日志:

18/04/05 15:14:43 INFO mount.RpcProgramMountd: Path /dir is not shared.


我也尝试在/etc/exports中添加以下行
saurabh@0001:~$ cat /etc/exports
/whatsappData 10.0.0.0/24(rw,sync)
如何才能做到这一点。

最佳答案

从Hadoop docs中,我发现有一个配置导出点:nfs.export.point
这可以指定HDFS的NFS导出点。仅支持一个导出点。配置导出点时需要完整路径。默认情况下,导出点是根目录/

所以设置以下解决了我的问题:

<property>
  <name>nfs.export.point</name>
  <value>/dir</value>
</property>

关于hadoop - 如何通过NFS网关挂载特定的hadoop文件夹,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49671244/

相关文章:

maven - Jenkins 无法建立Maven和Gradle项目

linux - 您好,使用 NFS 挂载和共享服务器

hadoop - 将边缘设备的平面数据文件导入HDFS并进行处理

linux - 如果通过 NFS 安装,为什么 proc 文件系统是空的

hadoop - 配置单元中的日期格式

sql - 如何使用 Hive 以分钟为单位获取日期差异

hadoop - root @ localhost的密码是什么?

hadoop - MapReduce - 从提供的路径读取文件

java - 创建用于读取/写入HDFS数据的JSON服务

hadoop 1.x 端口列表——另外 4 个未知端口