hadoop - 增加 hadoop 任务 JVM 大小

标签 hadoop mapreduce

我想设置任务JVM大小(Map任务和Reduce任务),可以使用属性mapred.child.java.opts来完成。但我担心的是,我需要在哪里设置它。我可以在提交作业时使用 -D 选项设置它吗?或者我需要在每个节点的 mapred-site.xml 中设置此属性。

谢谢, 普里亚兰詹

最佳答案

您可以使用

-Dmapred.child.java.opts='-Xmx1024m'

在命令行上将任务内存设置为 1024 mib。

类似地,在作业的Java代码中,您可以将其设置为配置参数:

conf.set("mapred.child.java.opts", "-Xmx1024m");

关于hadoop - 增加 hadoop 任务 JVM 大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24549755/

相关文章:

python - 将 PySpark DF 写入专用格式的文件

hadoop - map() 函数的调用次数与 MR Job 发出的 map 任务数之间的关系

hadoop - Hadoop-Mkdirs无法创建C:\Users\acer\AppData\Local\Temp\hadoop-unjar778 7707269774970262\META-INF\license

java - 如何在不使用 OOzie 的情况下创建 Hadoop 作业链

hadoop - PIG 和 HIVE 连接到运行大量 map 的 Datastax Cassandra

hadoop - hbase的性能,多个相同结构的表和包含大量数据的单个表哪个更有效?

.net - 在 .NET 中使用 Thrift 在 Hbase 上进行 MapReduce?

hadoop - 在 Cloudera Quickstart VM 中导入所有表时在 Sqoop 中出现错误

date - 与Hive中的add_months函数不一致?

hadoop - dijkstra的最短路径算法回溯了吗?