apache-spark - spark.executor.extraJavaOptions 在 spark-submit 中被忽略

标签 apache-spark hadoop

我是一名新手,正在尝试介绍本地 Spark 工作。 这是我尝试执行的命令,但我收到一条警告,指出我的执行程序选项被忽略,因为它们是非 spark 配置属性。

错误:

Warning: Ignoring non-spark config property: “spark.executor.extraJavaOptions=javaagent:statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar=server=localhost,port=8086,reporter=InfluxDBReporter,database=profiler,username=profiler,password=profiler,prefix=MyNamespace.MySparkApplication,tagMapping=namespace.application”

命令:

./bin/spark-submit --master local[2] --class org.apache.spark.examples.GroupByTest --conf “spark.executor.extraJavaOptions=-javaagent:statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar=server=localhost,port=8086,reporter=InfluxDBReporter,database=profiler,username=profiler,password=profiler,prefix=MyNamespace.MySparkApplication,tagMapping=namespace.application” --name HdfsWordCount --jars /Users/shprin/statD/statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar libexec/examples/jars/spark-examples_2.11-2.3.0.jar

星火版本:2.0.3

请告诉我如何解决这个问题。

提前致谢。

最佳答案

我认为问题在于您用来指定 spark.executor.extraJavaOptions 的双引号。它应该是单引号。

./bin/spark-submit --master local[2] --conf 'spark.executor.extraJavaOptions=-javaagent:statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar=server=localhost,port=8086,reporter=InfluxDBReporter,database=profiler,username=profiler,password=profiler,prefix=MyNamespace.MySparkApplication,tagMapping=namespace.application' --class org.apache.spark.examples.GroupByTest --name HdfsWordCount --jars /Users/shprin/statD/statsd-jvm-profiler-2.1.0-jar-with-dependencies.jar libexec/examples/jars/spark-examples_2.11-2.3.0.jar

关于apache-spark - spark.executor.extraJavaOptions 在 spark-submit 中被忽略,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50002027/

相关文章:

java - 在单个节点中运行 Spark 计算

hadoop - Oozie pyspark 工作

java - 为什么在我设置 map 压缩属性后 hadoop 就卡在那里了?

unit-testing - mrunit的继承者是什么?

apache-spark - 如何在 Spark Streaming 中启用背压(使用 pyspark)

apache-spark - Apache Spark 和 Nifi 集成

python - 如何同时使用 substring 和 instr pyspark

hadoop - 如何获取基于 yarn 的 Spark 应用程序的 CPU 使用情况

java - 如何在 for 循环中迭代文本并在 MapReduce() 中查找特定文本的计数

hadoop - 具有字符串输入/输出的Hive/Impala UDF