我正在使用以下 Spark 配置
maxCores = 5
driverMemory=2g
executorMemory=17g
executorInstances=100
问题: 在 100 个执行程序中,我的工作最终只有 10 个事件执行程序,但仍有足够的可用内存。即使尝试将执行程序设置为 250,也只有 10 个保持事件状态。我想做的就是加载多分区配置单元表并对其执行 df.count。
Please help me understanding the issue causing the executors kill
17/12/20 11:08:21 ERROR executor.CoarseGrainedExecutorBackend: RECEIVED SIGNAL TERM
17/12/20 11:08:21 INFO storage.DiskBlockManager: Shutdown hook called
17/12/20 11:08:21 INFO util.ShutdownHookManager: Shutdown hook called
不知道为什么 yarn 会杀死我的执行者。
最佳答案
我遇到了类似的问题,对 NodeManager-Logs 的调查引导我找到了根本原因。 您可以通过网络界面访问它们
nodeManagerAddress:PORT/logs
PORT 在 yarn.nodemanager.webapp.address 下的 yarn-site.xml 中指定。 (默认:8042)
我的调查工作流程:
- 收集日志( yarn 日志...命令)
- 识别发出错误的节点和容器(在这些日志中)
- 按错误的时间戳搜索 NodeManager 日志以查找根本原因
顺便说一句:您可以通过以下方式访问影响同一端口节点的所有配置的聚合集合(xml):
nodeManagerAdress:PORT/conf
关于scala - Spark错误: executor. CoarseGrainedExecutorBackend:收到信号术语,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47907561/