hadoop - 如何从 SparkContext 连接 Apache Spark 和 Yarn?

标签 hadoop apache-spark hadoop-yarn

我使用 Eclipse 在 Java 中开发了一个 Spark 应用程序。
到目前为止,我通过将 master 的地址配置为“local[*]”来使用独立模式。
现在我想把这个应用程序部署到 Yarn 集群上。
我找到的唯一官方文档是 http://spark.apache.org/docs/latest/running-on-yarn.html

与在 mesos 集群上或独立部署的文档 (http://spark.apache.org/docs/latest/running-on-mesos.html) 不同,在 SparkContext 中没有任何 URL 可用于 master 的地址。
显然,我必须使用行命令在 Yarn 上部署 spark。

你知道有没有办法像standalone和mesos模式一样在SparkContext中配置master的地址?

最佳答案

实际上有一个 URL。

Ensure that HADOOP_CONF_DIR or YARN_CONF_DIR points to the directory which contains the (client side) configuration files for the Hadoop cluster. These configs are used to write to HDFS and connect to the YARN ResourceManager

您应该至少有 hdfs-site.xmlyarn-site.xmlcore-site.xml 文件来指定您连接到的 Hadoop 集群的所有设置和 URL。

yarn-site.xml 中的一些属性包括 yarn.nodemanager.hostnameyarn.nodemanager.address

由于地址默认为 ${yarn.nodemanager.hostname}:0,您可能只需要设置主机名。

关于hadoop - 如何从 SparkContext 连接 Apache Spark 和 Yarn?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41021594/

相关文章:

python - 向Hbase插入数据的最快方法是什么?

scala - Spark 正在重复工作

apache-spark - 为什么 pyspark 中的 "serialized results of n tasks (XXXX MB)"可能大于 `spark.driver.memory`?

hadoop - CDH 4.1 : Error running child : java. lang.OutOfMemoryError:Java堆空间

hadoop - Hadoop 不是更像一个网格而不是一个集群吗?

mysql - 重新启动 Ambari 管理的 MySQL 服务器

hadoop - 如何从配置单元外部表创建数据框

apache-spark - Apache Zeppelin + Spark 的按需用户集群?

apache-spark - 具有太多可抢占节点的 Google dataproc spark 集群有时会挂起

hadoop - Oozie作业提交失败