apache-spark - 驱动程序命令关闭后,Spark 工作器停止

标签 apache-spark apache-spark-standalone

基本上,主节点也作为从节点之一执行。一旦 master 上的 slave 完成,它就会调用 SparkContext 停止,因此这个命令会传播到所有在处理过程中停止执行的 slave。
错误登录其中一名工作人员:

INFO SparkHadoopMapRedUtil: attempt_201612061001_0008_m_000005_18112: Committed

INFO Executor: Finished task 5.0 in stage 8.0 (TID 18112). 2536 bytes result sent to driver

INFO CoarseGrainedExecutorBackend: Driver commanded a shutdown

ERROR CoarseGrainedExecutorBackend: RECEIVED SIGNAL TERMtdown

最佳答案

检查您的资源管理器用户界面,以防您看到任何执行程序失败 - 它详细介绍了内存错误。但是,如果执行程序没有失败但仍然要求关闭驱动程序 - 通常这是由于驱动程序内存,请尝试增加驱动程序内存。让我知道事情的后续。

关于apache-spark - 驱动程序命令关闭后,Spark 工作器停止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40993104/

相关文章:

apache-spark - 我应该为 Spark 选择哪种集群类型?

scala - 在 Spark 中,我无法按现有列进行过滤

python - 在 PySpark 中转置 RowMatrix

database - Spark : run InputFormat as singleton

apache-spark - 从不同的 Spark 版本访问 spark-shell

apache-spark - 在独立模式下在主节点上启动多个工作程序

apache-spark - 带有 Hive Metastore 3.1.0 的 Apache Spark 2.3.1

apache-spark - 如何在 Spark Streaming 中构建查找图?

apache-spark - 如何使 Spark 驱动程序对 Master 重启具有弹性?

scala - 找不到 Apache Spark 方法 sun.nio.ch.DirectBuffer.cleaner()Lsun/misc/Cleaner;