apache-spark - Zeppelin 在 YARN 中坚持工作

标签 apache-spark hadoop-yarn hortonworks-data-platform apache-zeppelin

当我从 Zeppelin 运行 Spark 作业时,该作业成功完成,但它停留在 YARN on 模式运行中。 问题是作业正在占用 YARN 中的资源。我认为 Zeppelin 坚持 YARN 的工作。

我该如何解决这个问题?

谢谢

最佳答案

有两种解决方案。

快速的方法是使用 "restart interpreter" functionality ,这是错误的命名,因为它只是停止解释器。在这种情况下,Yarn 中的 Spark 作业。

优雅的一种是配置 Zeppelin 以使用 dynamic allocation与星火。在这种情况下,Yarn 应用程序主机将继续运行,Spark 驱动程序将继续运行,但所有执行程序(它们是真正的资源消耗者)在不使用时都可以由 Yarn 释放。

关于apache-spark - Zeppelin 在 YARN 中坚持工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48985340/

相关文章:

java - 使用 Spark 在 Kafka 上发布消息

Hadoop YARN 设置身份验证问题

apache-spark - Spark 执行器登录 YARN

apache-spark - 如何将作业提交到其他集群上的 yarn ?

hadoop - 使用自动化脚本配置 AWS 集群

hadoop - Datanode HBase和NameNode没有启动hortonworks

java - java.lang.NoClassDefFoundError:在hadoop集群上运行Mahout示例

hadoop - 'SparkContext' 对象没有属性 'textfile'

python - 派斯帕克。 spark.SparkException : Job aborted due to stage failure: Task 0 in stage 15. 0 失败 1 次,java.net.SocketException:连接重置

java - 如何在 Java Spark MLLib 中使用映射和归约合并文本文件?