apache-spark - 如何触发提交到 ZooKeeper 管理的 Mesos 集群(给出 java.net.UnknownHostException : zk for mesos://zk://master URL)?

标签 apache-spark mesos

我正在运行 Spark 2.0.2 和 Mesos 0.28.2。

我正在尝试向 Spark 提交一个应用程序,使用 ZooKeeper 管理的 Mesos 集群作为主节点:

$SPARK_HOME/bin/spark-submit --verbose \
--conf spark.mesos.executor.docker.image=$DOCKER_IMAGE \
--conf spark.mesos.executor.home=$SPARK_HOME \
--conf spark.executorEnv.MESOS_NATIVE_JAVA_LIBRARY=/usr/lib/libmesos.so \
--deploy-mode cluster \
--master mesos://zk://<ip 1>:2181,<ip 2>:2181,<ip 3>:2181/mesos \
--class $APP_MAIN_CLASS \
file://$APP_JAR_PATH

( <ip 1><ip 2><ip 3> 是 10.0.0.0/8 块中的 IPv4 地址)

根据documentation ,我似乎对主人有正确的格式:

The Master URLs for Mesos are in the form mesos://host:5050 for a single-master Mesos cluster, or mesos://zk://host1:2181,host2:2181,host3:2181/mesos for a multi-master Mesos cluster using ZooKeeper.



但是,似乎 Spark 正在读取 mesos://zk://...字符串然后尝试连接到 zk :
17/04/07 20:10:06 INFO RestSubmissionClient: Submitting a request to launch an application in mesos://zk://<ip 1>:2181,<ip 2>:2181,<ip 3>:2181/mesos.
Exception in thread "main" java.net.UnknownHostException: zk
    at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:184)
    at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)
    at java.net.Socket.connect(Socket.java:589)
    at java.net.Socket.connect(Socket.java:538)
    at sun.net.NetworkClient.doConnect(NetworkClient.java:180)
    at sun.net.www.http.HttpClient.openServer(HttpClient.java:432)
    at sun.net.www.http.HttpClient.openServer(HttpClient.java:527)
    at sun.net.www.http.HttpClient.<init>(HttpClient.java:211)
    at sun.net.www.http.HttpClient.New(HttpClient.java:308)
    at sun.net.www.http.HttpClient.New(HttpClient.java:326)
    at sun.net.www.protocol.http.HttpURLConnection.getNewHttpClient(HttpURLConnection.java:1202)
    at sun.net.www.protocol.http.HttpURLConnection.plainConnect0(HttpURLConnection.java:1138)
    at sun.net.www.protocol.http.HttpURLConnection.plainConnect(HttpURLConnection.java:1032)
    at sun.net.www.protocol.http.HttpURLConnection.connect(HttpURLConnection.java:966)
    at sun.net.www.protocol.http.HttpURLConnection.getOutputStream0(HttpURLConnection.java:1316)
    at sun.net.www.protocol.http.HttpURLConnection.getOutputStream(HttpURLConnection.java:1291)
    at org.apache.spark.deploy.rest.RestSubmissionClient.org$apache$spark$deploy$rest$RestSubmissionClient$$postJson(RestSubmissionClient.scala:214)
    at org.apache.spark.deploy.rest.RestSubmissionClient$$anonfun$createSubmission$3.apply(RestSubmissionClient.scala:89)
    at org.apache.spark.deploy.rest.RestSubmissionClient$$anonfun$createSubmission$3.apply(RestSubmissionClient.scala:85)
    at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:733)
    at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
    at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:186)
    at scala.collection.TraversableLike$WithFilter.foreach(TraversableLike.scala:732)
    at org.apache.spark.deploy.rest.RestSubmissionClient.createSubmission(RestSubmissionClient.scala:85)
    at org.apache.spark.deploy.rest.RestSubmissionClient$.run(RestSubmissionClient.scala:417)
    at org.apache.spark.deploy.rest.RestSubmissionClient$.main(RestSubmissionClient.scala:430)
    at org.apache.spark.deploy.rest.RestSubmissionClient.main(RestSubmissionClient.scala)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:736)
    at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:185)
    at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:210)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:124)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

我如何让 Spark 认识到它应该使用三个 ZooKeeper 节点而不是尝试连接到不存在的 zk主持人?

最佳答案

tl;博士 除非您更改 --deploy-mode,否则它不会起作用至 client或者在单个 Mesos 主机上使用主 URL,例如mesos://host:port .

下一行给出了在哪里可以找到相关代码的提示。

17/04/07 20:10:06 INFO RestSubmissionClient: Submitting a request to launch an application in mesos://zk://:2181,:2181,:2181/mesos.



看起来这条消息只为 --deploy-mode cluster 打印出来使用 Spark Standalone 和 Apache Mesos。将其更改为默认值 client并且部署路径将更改并希望接受主 URL。

自己看负责集群部署的代码--RestSubmissionClient .

Here RestSubmissionClient说:
private val supportedMasterPrefixes = Seq("spark://", "mesos://")

证明 mesos:// URL 被覆盖,但 here您会看到以下内容:
private val masters: Array[String] = if (master.startsWith("spark://")) {
  Utils.parseStandaloneMasterUrls(master)
} else {
  Array(master)
}

打印出来的here因为上面显示 URL 的 INFO 消息只能是单个 Mesos master。

关于apache-spark - 如何触发提交到 ZooKeeper 管理的 Mesos 集群(给出 java.net.UnknownHostException : zk for mesos://zk://master URL)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43286814/

相关文章:

apache - 如何编译 libmesos.so 文件?

scala - 如何通过Spark Dataframe中的索引删除数组中的元素

ansible - Ansible 上没有可用的与 'mesos' 匹配的软件包

scala - 从文件系统读取文本文件时,Spark 仍然尝试连接到 HDFS

apache-spark - Spark 流作业中的任务之间长时间且一致的等待

dns - mesos-dns,使用端口的最佳实践

scala - 如何使用 spark-submit(类似于 Python 脚本)运行 Scala 脚本?

apache-spark - 如何为 Spark RDD 中的元素分配唯一的连续编号

scala - hbase-spark 加载数据引发 NullPointerException 错误(scala)

scala - 如何为 HH :MM:SS:Ms to value in seconds? 转换 Spark Dataframe 列