java - 如何使用 livy 提交带有关键字参数的 jar?

标签 java apache-spark livy

我正在使用 livy(post/batches) 提交带有关键字参数的 jar。

例如:

spark-sumbit \
    --class xxx \
    --master xxx \
    --conf xxx=aa \
    my_test.jar --arg1 <arg1> --arg2 <arg2>

在 livy(post/batch) 中,我该怎么做?李维支持这个吗?

最佳答案

您可以按照这种格式wjile POST

{ "file": "xxx.jar", "className": "xx", "args": ["xx"], "conf": { "spark.jars.packages": "com.amazonaws: aws-java-sdk-bundle:1.11.199,org.apache.hadoop:hadoop-aws:2.9.1, "spark.hadoop.fs.s3a.signing-algorithm": "S3SignerType", "spark.ui.port ":"4040", "spark.ui.proxyBase":"/hisparklivy", "spark.driver.memory": "4g", "spark.executor.memory": "8g", "spark.executor.cores": 5, "spark.dynamicAllocation.enabled": "false", "spark.cores.max": 25}

关于java - 如何使用 livy 提交带有关键字参数的 jar?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57215206/

相关文章:

java - 如何在 java 中使用 yarn api 提交 mapreduce 作业

scala - 如何使用 Apache Livy 设置 Spark 配置属性?

apache-spark - 我应该使用哪个版本的 hadoop-aws

pyspark - Spark 应用程序在 1 小时后在 EMR 中突然被 KILLED 并且 livy session 过期。原因和解决方案是什么?

azure - 如何使 HDInsight/Spark 群集在空闲时收缩?

java - 在运行时扩展类

java - While 循环数字求和

java - Play .exceptions.JavaExecutionException : id to load is required for loading

java - 获取broadcast5的broadcast_5_piece0失败

java - Java Spark如何将JavaPairRDD <HashSet <String>,HashMap <String,Double >>保存到文件?