scala - 自动 Spark RDD 分区缓存驱逐何时实现?

标签 scala apache-spark

以前Spark会OOM很多 Spark java.lang.OutOfMemoryError: Java heap space

我注意到,自从更新版本(对我来说最近是 1.6+,因为我从 0.7 开始)以来,如果 RDD 无法放入内存,Spark 版本不会抛出 OOM。相反,RDD 分区被逐出,因此需要重新计算。

我想知道哪个版本的 Spark 进行了此更改?

我尝试阅读了很多 https://spark.apache.org/releases/但找不到任何明确的信息。

我很确定它在 2.0 左右,但找不到任何证据来证明这一点。

这个 Jira 似乎暗示它是在 1.6 中与统一内存管理一起实现的 https://issues.apache.org/jira/browse/SPARK-14289

最佳答案

关于scala - 自动 Spark RDD 分区缓存驱逐何时实现?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69597745/

相关文章:

java - 如何从 spark 中设置和获取静态变量?

scala - 在spark中为LDA准备数据

arrays - 获取pyspark数组列中所有True元素的索引

amazon-s3 - 亚马逊 EMR Spark 集群 : output/result not visible

apache-spark - 从 Spark 读取多个 json 文件

scala - 在Scala中执行map/getOrElse返回单位的惯用方式是什么?

scala - 在 Scala 中子类化和输入

scala - `.tupled()` 时保留默认值

java vs scala - 在单独的线程上读取文件

scala - 如何干净地处理嵌套的 Future[Option[A]]