java - spark submit 命令的命令行参数中是否有字符限制?

标签 java hadoop apache-spark hdfs

我还想知道在 spark submit 命令的参数中是否有任何特殊字符不能使用?

我也想知道我们可以将整个嵌套的 Json 字符串传递给 spark 提交命令中的参数吗?

另一个问题是如何使用 java 代码(来自另一个程序)运行 spark 程序?

那么,我们是否必须在集群(安装了 spark 的 linux 机器)上运行我们的其他程序才能运行我的 spark 程序?

这件事我太糊涂了;请提出建议。

最佳答案

对于你的第二个问题:另一个问题是如何使用 java 代码(来自另一个程序)运行 spark 程序? 在你的java程序中如果你有一个Maven项目,你可以添加一个maven依赖。 Spark 工件托管在 Maven Central 中。您可以在 pom.xml 中添加 Maven 依赖项

<dependency>
   <groupId>org.apache.spark</groupId>
   <artifactId>spark-core_2.10</artifactId>
   <version>1.3.1</version>
</dependency>

如果没有,您可以选择下载 jar 文件并将其作为外部库添加到您的 java 代码中。 在任何这些选项之后,您将能够在您的 java 程序中编写 java spark 代码。 您可以在此处找到依赖项和 jar 文件:http://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/1.4.1 是的,您需要一台装有 Spark 的机器来运行您的代码。为了运行它,你可以从你的程序中制作一个可执行的 jar 并运行它:

$: spark/bin/spark-submit --class com.your.MainClass --master spark://your_master_node:7077 your_jar_file.jar

祝你好运!

关于java - spark submit 命令的命令行参数中是否有字符限制?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31579980/

相关文章:

java - 何时使用 Spark Streaming 将记录写入预写日志?

java - Java 库中缺少 @Override

hadoop - 想要使用 map reduce 实现或读取奇数记录

scala - 从 Cassandra 查询的数据无法再次在同一列上进行过滤 (InvalidQueryException)

hadoop - 递归查找 HDFS 文件夹中的最大文件或子目录

hadoop - s3 上的 Spark 数据集 Parquet 分区创建临时文件夹

scala - 超过 `spark.driver.maxResultSize` 而不给驱动程序带来任何数据

java - hibernate.org Bundle "import package"链接到 rt.jar 中的错误包 javax.transaction 而不是 jboss-transaction.jar

java - "Redraw"LinearLayout View 更改选项

java - 具有动态构造函数值的spring bean