java - 不使用spark-submit.sh时,Spark如何知道Yarn资源管理器在哪里运行?

标签 java apache-spark

我对 Spark 很陌生,我正在尝试在 yarn 集群模式下从我的应用程序内部启动 Spark 作业(不使用 Spark-submit.sh),并且我正在尝试弄清楚该作业如何知道在哪里Yarn ResourceManager 正在运行。 我已经做到了

SparkConf sConf = new SparkConf().setMaster("yarn-cluster").set("spark.driver.memory", "10g");

但我无法配置的是 Yarn ResourceManager 的位置。关于我如何去做有什么想法吗?我有一个集群设置,其中 Yarn RM 与应用程序不在同一台计算机上运行。

最佳答案

这些属性可以在 yarn-site.xml 中找到,或者位于 HADOOP_CONF_DIRYARN_CONF_DIR 环境变量中,这些变量可以设置为操作系统级别,或在 spark-env.sh 中。

在非 HA 部署中,您正在寻找 yarn.resourcemanager.address

关于java - 不使用spark-submit.sh时,Spark如何知道Yarn资源管理器在哪里运行?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43369700/

相关文章:

java - 变量名称不能在Eclipse中解析为变量错误(多重继承)

java - 在 2 个 Activity 中重用 GLsurfaceView

python - PySpark DataFrame 中行作为新列的模式

java - 如何使用apache Spark通过列表来消除文本中的特定单词?

java - 如何将正确的数组返回到方法中并正确修复 main 方法

java - 什么是java中的哈希函数?

python - 使用类似 SQL 的 IN 子句过滤 Pyspark DataFrame

apache-spark - 如何获取 DataFrame 的字符串表示形式(如 Dataset.show)?

regex - 如何使用正则表达式过滤 Scala 中的字母数字字符串

java - 在尝试使用资源时,PrintWriter 对象变量无法解析为类型