apache-spark - 如果驱动程序崩溃会发生什么?

标签 apache-spark

我了解工作节点如何容错,但是如果您的驱动程序由于某种意外原因崩溃了会发生什么? (断电/内存问题等)。

我想你会失去所有工作,因为读取结果的代码不再运行,或者 Spark 是否知道如何重新启动它?如果是这样怎么办?

最佳答案

正如 @zsxwing 指出的那样,这取决于您运行驱动程序的方式。除了在yarn中运行之外,你还可以使用cluster的部署模式来运行你的作业(这是spark-submit的一个参数)。在 Spark Streaming 中,您指定 --supervise,Spark 将为您重新启 Action 业。详情见Spark Streaming Guide

关于apache-spark - 如果驱动程序崩溃会发生什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26618464/

相关文章:

scala - 将 hdfs 文件加载到 Spark 上下文中

python - 如何使用 Lambda 函数为 Python 中的字典分配键和值?

apache-spark - 选举新的动物园管理员领导者关闭了 Spark Master

hadoop - 从/var和/tmp目录重定向嵌入式Hive

java - 通过Java触发的Spark程序中自定义log4j进行日志记录

hadoop - 星火-Hadoop-> org.apache.hadoop.mapred.InvalidInputException : Input path does not exist

python - 统一码编码错误 : 'ascii' codec can't encode character error

apache-spark - Spark 驱动程序 pod 被杀死,状态为 'OOMKilled'

python - 从 Python 在 kubernetes 集群上提交 Spark (2.3)

python - PySpark:如何判断数据框的列类型