apache-spark - 为什么spark执行器会收到SIGTERM?

标签 apache-spark signals

我正在使用 Spark API(Spark 核心 API,而不是 Stream、SQL 等) 我经常在spark dumped日志中看到这种错误: Spark环境:1.3.1yarn-client

ERROR executor.CoarseGrainedExecutorBackend: RECEIVED SIGNAL 15: SIGTERM
  1. 谁触发了 SIGTERM。 YARN、Spark 还是我自己?
  2. 此信号会终止 Spark Executor 吗?如果没有,哇会不会影响spark程序。

我确实按了 Ctrl+c,但这应该是 SIGINT。如果 YARN 杀死执行器,那就是 SIGKILL。

最佳答案

您可能会在 yarn 日志中找到原因。如果您激活了日志聚合,您可以键入

yarn 日志 -applicationId [app_id]

并查找异常。

关于apache-spark - 为什么spark执行器会收到SIGTERM?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33141129/

相关文章:

python - 在 Python 中的特定时间生成信号

c - 在阻塞时获取 SIGSEGV 信号

java - 使用 Spark (Java) 实现 minhash LSH

python - 用于对称运算的 spark 笛卡尔上三角 : `x*(x+1)//2` instead of `x**2`

amazon-web-services - 使用 spark 从胶水目录中读取而不是使用动态框架(胶水上下文)

c - 短读/写可能发生的条件是什么?

c++ - SigCgt 值未在/proc/<pid>/status 文件中更新?

apache-spark - DSMS、Storm 和 Flink 之间的区别

scala - 将 IndexToString 应用于 Spark 中的特征向量

非阻塞系统调用可以中断吗?