java - 我可以在运行时更改 Spark 的执行程序内存吗?

标签 java scala hadoop apache-spark hadoop-yarn

是否可以在 Spark 运行时更改执行程序内存的值?我想这样做的原因是,对于某些 map task ,我希望 yarn 调度程序将每个任务放在一个单独的节点上。通过将执行程序内存增加到接近节点的总内存,我确保它们分布在每个节点上。后来,我想在每个节点上运行多个任务,所以我会降低它们的执行程序内存。

最佳答案

不,你不能。

每个执行程序都在自己的 JVM 上启动,您无法在运行时更改 JVM 内存。请参阅引用:Setting JVM heap size at runtime

关于java - 我可以在运行时更改 Spark 的执行程序内存吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31365853/

相关文章:

java - 如何在postgreSql中使用JDBCTemplate batchUpdate捕获错误记录?

java - 在java中加入多个迭代器

scala - 如何访问--files指定的文件?

Scala 外部 DSL——多行字符串文字

java - hadoop中的NoCLassDefFounderror

java - Jackson JSON、REST 数据绑定(bind)和 HashMap 问题

java - 在不引发FileNotFoundException的情况下无法声明全局静态Scanner对象?

Java io 库 : What is the difference between File. toString() 和 File.getPath()

hadoop - 将数据从 HDFS 加载到 Hive 时出现问题

hadoop - 在 HDFS 中本地化 HFile block