hadoop - 在 Apache Spark 的上下文中,内存数据存储意味着什么?

标签 hadoop apache-spark

我了解到 Apache Spark 在内存中存储数据。但是,Apache Spark 旨在分析大量数据(也称为大数据分析)。在这种情况下,内存数据存储的真正含义是什么?它可以存储的数据是否受可用 RAM 的限制?它的数据存储与使用HDFS的Apache Hadoop相比如何?

最佳答案

在 Hadoop 中,数据在步骤之间持久保存到磁盘,因此典型的多步骤作业最终看起来像这样:

hdfs -> read & map -> persist -> read & reduce -> hdfs -> read & map -> persist -> read and reduce -> hdfs

这是一个绝妙的设计,当您批量处理非常适合 map-reduce 模式的文件时,使用它非常有意义。但对于某些工作负载,这可能会非常慢——迭代算法尤其会受到负面影响。您已经花时间创建了一些数据结构(例如图表),而您在每个步骤中想要做的就是更新分数。将整个图表保存到磁盘或从磁盘读取整个图表会减慢您的工作速度。

Spark 使用支持循环数据流的更通用的引擎,并将尝试在作业步骤之间将内容保存在内存中。这意味着,如果您可以创建一个数据结构和分区策略,您的数据不会在作业的每个步骤之间来回移动,您就可以有效地更新它,而无需在步骤之间序列化并将所有内容写入磁盘。这就是为什么 Spark 在他们的首页上有一张图表显示逻辑回归加速 100 倍的原因。

如果您编写的 Spark 作业仅计算数据集中每个输入行的值,并将其写回磁盘,则 Hadoop 和 Spark 在性能方面将非常相等(Spark 的启动时间更快) ,但当我们花费数小时一步处理数据时,这并不重要)。

如果 Spark 无法在步骤之间将 RDD 保存在内存中,它会将其溢出到磁盘,就像 Hadoop 所做的那样。但请记住,Spark 不是 Elixir ,在某些极端情况下,您将不得不与 Spark 的内存特性作斗争,这会导致 OutOfMemory 问题,而 Hadoop 只会将所有内容写入磁盘。

我个人喜欢这样想:在您的 500 台 64GB 机器集群中,创建 Hadoop 是为了通过分配磁盘读写来更快地高效批处理您的 500TB 作业。 Spark 利用了这样一个事实,即 500*64GB=32TB 的内存可能可以完全在内存中解决您的许多其他问题!

关于hadoop - 在 Apache Spark 的上下文中,内存数据存储意味着什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25334598/

相关文章:

mongodb - 是否可以将数据库直接从 HDFS 作为 DataFrame 加载到 spark 中?

java - 如何将 Object[] 转换为 Row[]?

apache-spark - 为什么 Spark 会选择在单个节点上完成所有工作?

java - 如何在关闭它并将其写入磁盘之前获取 ParquetWriter 对象的内存大小?

hadoop - 在 hadoop 中获取名称服务的事件名称节点的任何命令?

hadoop - Mahout:如何分为均等的训练集

scala - : 'writeStream' can be called only on streaming Dataset/DataFrame异常

scala - 如何在spark中使用kryo序列化器注册StringType$

hadoop - 更改源代码后如何更新我的 hadoop 实例?

java - hadoop容器标准输出始终为空