hadoop - 如何从每个节点访问 hadoop-yarn 应用程序上的 hdfs?

标签 hadoop hdfs hadoop-yarn

如何在“HADOOP(2.5.2) YARN应用”中访问HDFS并从各个节点读写文件?我通常知道 YARN 应用程序运行在 HDFS 上。我没有可以回答这些基本问题的网站或文档,所以我想问一下。

最佳答案

YARN 应用程序在 YARN 中运行(或至少请求内存空间),而不是 HDFS。

HDFS只是一个用于文件存储的文件系统。您使用多种工具进行读写,例如 Hadoop CLI、MapReduce、Apache Spark 等。

例如 CLI 是 hadoop fs -put/local-file hdfs://remote/file

这些应用程序是否由 YARN 管理与 HDFS 文件的访问方式无关。

HDFS 不需要 YARN。它是完全独立的,用于内存 Resource N 协商器(如名称所示)。无论 YARN 容器在哪个节点上运行,都可能是 Hadoop 环境中的 HDFS 数据节点,但这并不总是正确的——这只是一个很好的设计,因为数据在 HDFS 术语中将是 NODE_LOCAL,因此不需要打乱数据集群周围。

关于hadoop - 如何从每个节点访问 hadoop-yarn 应用程序上的 hdfs?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42019330/

相关文章:

hadoop - 有什么方法可以防止在所有 map task 完成之前 reduce task 开始

java - 无法使用本地 hadoop 连接 azure blob 存储

hadoop - 如何删除HDFS中超过x天的数据

java - 使用 hadoop-2.4.0 和 cygwin 的单节点集群设置

java - Hadoop MapReduce中更好的采样方式

hadoop - 控制 map 的数量并减少产生的工作?

Apache hadoop Yarn 示例程序

apache-spark - 为什么要增加 spark.yarn.executor.memoryOverhead?

java - 使用 hadoop 的 Apache Tez 配置

scala - java.io.IOException : No FileSystem for scheme : hdfs 异常