scala - Spark错误: executor. CoarseGrainedExecutorBackend:收到信号术语

标签 scala apache-spark

我正在使用以下 Spark 配置

maxCores = 5
 driverMemory=2g
 executorMemory=17g
 executorInstances=100

问题: 在 100 个执行程序中,我的工作最终只有 10 个事件执行程序,但仍有足够的可用内存。即使尝试将执行程序设置为 250,也只有 10 个保持事件状态。我想做的就是加载多分区配置单元表并对其执行 df.count。

Please help me understanding the issue causing the executors kill
17/12/20 11:08:21 ERROR executor.CoarseGrainedExecutorBackend: RECEIVED SIGNAL TERM
17/12/20 11:08:21 INFO storage.DiskBlockManager: Shutdown hook called
17/12/20 11:08:21 INFO util.ShutdownHookManager: Shutdown hook called

不知道为什么 yarn 会杀死我的执行者。

最佳答案

我遇到了类似的问题,对 NodeManager-Logs 的调查引导我找到了根本原因。 您可以通过网络界面访问它们

nodeManagerAddress:PORT/logs

PORTyarn.nodemanager.webapp.address 下的 yarn-site.xml 中指定。 (默认:8042)

我的调查工作流程:

  1. 收集日志( yarn 日志...命令)
  2. 识别发出错误的节点和容器(在这些日志中)
  3. 错误的时间戳搜索 NodeManager 日志以查找根本原因

顺便说一句:您可以通过以下方式访问影响同一端口节点的所有配置的聚合集合(xml):

 nodeManagerAdress:PORT/conf

关于scala - Spark错误: executor. CoarseGrainedExecutorBackend:收到信号术语,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47907561/

相关文章:

scala - 导入语句 :error:not found in Scala REPL

scala - 如何处理外连接的 Spark 数据框中的数据倾斜

scala - Play+Scala 套件测试未找到类型 PlaySpecification

java - 启动 Spark Master Windows 7

scala - 在 Apache Spark 中,如何使 RDD/DataFrame 操作惰性化?

apache-spark - 在 pyspark 中将 yyyymmdd 格式转换为 MM-dd-yyyy 格式

Scala,扩展具有通用特征的对象

algorithm - 将循环缓冲区复制到更大的缓冲区,同时保留内容和模数索引

java - Spark中的并行bean类

scala - 由 org.apache.spark.sql.Dataset 处的 : java. lang.NullPointerException 引起