基本上,主节点也作为从节点之一执行。一旦 master 上的 slave 完成,它就会调用 SparkContext 停止,因此这个命令会传播到所有在处理过程中停止执行的 slave。
错误登录其中一名工作人员:
INFO SparkHadoopMapRedUtil: attempt_201612061001_0008_m_000005_18112: Committed
INFO Executor: Finished task 5.0 in stage 8.0 (TID 18112). 2536 bytes result sent to driver
INFO CoarseGrainedExecutorBackend: Driver commanded a shutdown
ERROR CoarseGrainedExecutorBackend: RECEIVED SIGNAL TERMtdown
最佳答案
检查您的资源管理器用户界面,以防您看到任何执行程序失败 - 它详细介绍了内存错误。但是,如果执行程序没有失败但仍然要求关闭驱动程序 - 通常这是由于驱动程序内存,请尝试增加驱动程序内存。让我知道事情的后续。
关于apache-spark - 驱动程序命令关闭后,Spark 工作器停止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40993104/