apache-spark - 无法通过 YARN 访问 Spark UI

标签 apache-spark docker hadoop hadoop-yarn spark-ui

我正在构建一个 docker 镜像,以针对使用 YARN 的生产 Hadoop 集群在本地运行 zeppelin 或 spark-shell。 编辑:环境是macOS

我可以很好地执行作业或 spark-shell,但是当我尝试访问 YARN 上的 Tracking URL 时,作业正在运行,它会挂起 YARN-UI 整整 10 分钟。 YARN 仍在工作,如果我通过 ssh 连接,我可以执行 yarn 命令。

如果我不访问 SparkUI(直接或通过 YARN),什么也不会发生。作业已执行且 YARN-UI 未挂起。

更多信息:

  • 本地,在 Docker 上:Spark 2.1.2、Hadoop 2.6.0-cdh5.4.3

  • 生产环境:Spark 2.1.0、Hadoop 2.6.0-cdh5.4.3

  • 如果我在本地执行它 (--master local[*]) 它会工作,我可以通过 4040 连接到 SparkUI。

  • Spark 配置:

      spark.driver.bindAddress           172.17.0.2 #docker_eth0_ip
      spark.driver.host                  192.168.XXX.XXX #local_ip 
      spark.driver.port                  5001
      spark.ui.port                      4040
      spark.blockManager.port            5003
    
  • 是的,ApplicationMaster 和节点对我的本地 SparkUI 或驱动程序具有可见性(telnet 测试)

  • 正如我所说,我可以执行作业,然后 docker 公开端口并且它的绑定(bind)正在工作。一些日志证明了这一点:

      INFO ApplicationMaster: Driver now available: 192.168.XXX.XXX:5001
      INFO TransportClientFactory: Successfully created connection to /192.168.XXX.XXX:5001 after 65 ms (0 ms spent in bootstraps)
      INFO ApplicationMaster$AMEndpoint: Add WebUI Filter. AddWebUIFilter(org.apache.hadoop.yarn.server.webproxy.amfilter.AmIpFilter,Map(PROXY_HOSTS -> jobtracker.hadoop, PROXY_URI_BASES -> http://jobtracker.hadoop:8088/proxy/application_000_000),/proxy/application_000_000)
    

一些想法或我可以在哪里查看正在发生的事情?

最佳答案

问题与 docker 在 MacOS 上执行时如何管理 IP 传入请求有关。

当在 docker 容器内运行的 YARN 收到一个请求时,它看不到原始 IP,它会看到内部代理 docker IP(在我的例子中是 172.17.0.1)。

当请求发送到我的本地容器 SparkUI 时,自动将请求重定向到 hadoop master(YARN 的工作方式),因为它发现请求不是来自 hadoop master,它只接受来自该源的请求。

当 master 收到转发的请求时,它会尝试将其发送到 spark 驱动程序(我的本地 docker 容器),后者再次将请求转发给 hadoop master,因为它发现 IP 源不是 master,而是代理 IP。

它占用为 UI 保留的所有线程。直到线程未被释放 YARN UI 被挂起

我“解决了”更改 docker yarn 配置

<property>
  <name>yarn.web-proxy.address</name>
  <value>172.17.0.1</value> 
</property>

这允许 sparkUI 处理对 docker 容器发出的任何请求。

关于apache-spark - 无法通过 YARN 访问 Spark UI,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51105320/

相关文章:

apache-spark - 是否可以使用 YARN 容量调度程序在 Spark 上运行 Hive?

docker - 如何仅处理到具有公开该端口的服务的 Docker Swarm 节点的端口流量?

hadoop fs -ls 内存不足错误

Hadoop 基准 : TestDFSIO

java - 将 JavaPairDStream<String, Integer> 转换为 JavaPairDStream<Integer, String>,切换元组中的值 (Java Spark)

scala - 如何将 Spark RDD[Array[MyObject]] 转换为 RDD[MyObject]

hadoop - 使用 Yarn 客户端在 Google Cloud 上的 Hadoop 中运行 JAR

docker - AWS ECS 容器无法连接,但在我的本地计算机上运行良好

docker - 在Docker构建时显示帮助消息

来自 apache PIG 的 mongodb 批量插入