java - 如何在java代码中运行bin/spark-submit?

标签 java apache-spark

最近在学习Spark。我通常通过命令行提交Spark Job。例如:

./bin/spark-submit \
  --class org.apache.spark.examples.SparkPi \
  --master local[8] \
  /path/to/examples.jar \
  100

但是,我想在Java代码中运行spark-submit,例如 SparkResult 结果 = sc.submit()

最佳答案

尝试使用 java.lang.Runtime.exec() 调用可执行文件.

或者来自spark docs ,这似乎是你的例子:

int count = spark.parallelize(makeRange(1, NUM_SAMPLES)).filter(new Function<Integer, Boolean>() {
  public Integer call(Integer i) {
    double x = Math.random();
    double y = Math.random();
    return x*x + y*y < 1;
  }
}).count();
System.out.println("Pi is roughly " + 4 * count / NUM_SAMPLES);

关于java - 如何在java代码中运行bin/spark-submit?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30354165/

相关文章:

java - YCSB zipf分布的alpha参数是多少

java - javadoc中@StringRes的用途是什么?

java - 需要一种方法来确保用户输入正确的金额,并确保用户不输入字符串

java - 使用 map 集合 hibernate 多对多

java - Spark - 将 scala 转换为 java

apache-spark - 为什么 "groupBy agg count alias"不创建新列?

apache-spark - 加入两个连接键不同的DataFrames,只选择一些列

scala - 如何更改SparkContext.sparkUser()设置(在pyspark中)?

java - Java中的Mongo ISODate查询

hadoop - 如何分别从tarball安装Spark和Hadoop [Cloudera]