apache - 单节点集群(hadoop)中的最大容器是多少?

标签 apache hadoop mapreduce hadoop-yarn hadoop2

我是 hadoop 的新手,我还不熟悉它的配置。

我只想问每个节点的最大容器

我正在使用单节点集群(6GB 内存笔记本电脑)

下面是我的 mapred 和 yarn 配置:

**mapred-site.xml**
map-mb : 4096 opts:-Xmx3072m
reduce-mb : 8192 opts:-Xmx6144m

**yarn-site.xml**
resource memory-mb : 40GB
min allocation-mb : 1GB

以上设置只能运行 4 到 5 个作业。最多 8 个容器。

最佳答案

在单个 NodeManager(hadoop worker)上运行的最大容器数取决于许多因素,例如分配给 NodeManager 的内存量以及应用程序的特定要求。

yarn.scheduler.*-allocation-* 的默认值是:1GB(最小分配)、8GB(最大分配)、1 核和 32 核。因此,最小和最大分配会影响每个节点的容器数。

因此,如果您有 6GB RAM 和 4 个虚拟内核,则 YARN 配置应如下所示:

yarn.scheduler.minimum-allocation-mb: 128
yarn.scheduler.maximum-allocation-mb: 2048
yarn.scheduler.minimum-allocation-vcores: 1
yarn.scheduler.maximum-allocation-vcores: 2
yarn.nodemanager.resource.memory-mb: 4096
yarn.nodemanager.resource.cpu-vcores: 4

上面的配置告诉 hadoop 最多使用 4GB 和 4 个虚拟核心,每个容器可以有 128 MB 到 2 GB 的内存和 1 到 2 个虚拟核心,使用这些设置你可以运行最多 2 个具有最大资源的容器一次。

现在,对于 MapReduce 特定配置:

yarn.app.mapreduce.am.resource.mb: 1024
yarn.app.mapreduce.am.command-opts: -Xmx768m
mapreduce.[map|reduce].cpu.vcores: 1
mapreduce.[map|reduce].memory.mb: 1024
mapreduce.[map|reduce].java.opts: -Xmx768m

使用此配置,理论上您最多可以在 4 个 1GB 容器中同时运行 4 个映射器/缩减器。实际上,MapReduce 应用程序主机将使用 1GB 的容器,因此并发映射器和缩减器的实际数量将限制为 3。您可以尝试内存限制,但可能需要进行一些实验才能找到最好的。

根据经验,您应该将堆大小限制为可用总内存的 75% 左右,以确保运行更顺利。

您还可以使用 yarn.scheduler.minimum-allocation-mb 属性为每个容器设置内存。

有关生产系统的更多详细配置,请使用此 document来自 hortonworks 作为引用。

关于apache - 单节点集群(hadoop)中的最大容器是多少?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26540507/

相关文章:

apache - codeigniter 中的 500 内部服务器错误

apache - NGINX -> Varnish 负载平衡器 -> Apache SSL 连接 = 错误请求

linux - 为什么Apache需要其他人对文件夹的执行权限

java - 文本填充中的JUNK字符,用于HADOOP mapreduce中的外语

hadoop - 运行映射减少作业以从Yarn上的hbase表删除数据时,作业失败

hadoop - 索引谷歌数据的 Mapreduce

apache - 使用 .htaccess 将 example.(us|es) 重定向到子域 (us|es).example.com

hadoop - 什么时候应该关闭 MapReduce 作业中的 HTablePool?

javascript - mongodb 中的加密哈希函数

hadoop - PIG local和mapreduce模式的区别