apache-spark - 我可以在 CDH 中安装多个 spark 版本吗?

标签 apache-spark cloudera-cdh

我使用的是 cdh5.1.0,它已经安装了默认的 spark。但是,我想使用 Spark 1.3。我也可以把这个版本安装到cdh5.1.0吗?怎么可能设置这些?新版spark也会通过Cloudera manager监控吗?

最佳答案

是的,您可以运行任何您喜欢的 Apache Spark 版本。只需确保它是为您拥有的 YARN 版本构建的(CDH 5.1.0 为 2.3)。然后,您可以使用 spark-submit 作为 YARN 应用程序运行您的应用程序。 (参见 http://spark.apache.org/docs/latest/running-on-yarn.html。)它将像任何其他 YARN 应用程序一样受到监控。

Spark 根本不需要“安装”,您只需运行您的应用程序即可。

关于apache-spark - 我可以在 CDH 中安装多个 spark 版本吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29691028/

相关文章:

apache-spark - 如何在 PySpark 中的数据框列中转换 JSON 字符串?

hadoop - cdh5.1.2是否支持Parquet文件格式

guava - Datastax Cassandra 驱动程序抛出 CodecNotFoundException

hadoop - 如何将存储在另一台(非分布式)服务器上的HDFS文件中的数据存档?

scala - Spark kryoserializer缓冲区溢出: conf not getting set

apache-spark - 如何在 pyspark 数据帧读取方法中包含分区列

hadoop - 如何在cloudera集群中设置PIG_HEAPSIZE?

hadoop - Cloudera 命令 : hdfs dfs -put testfile. txt 失败

scala - 将 DataFrame 写入 Parquet 或 Delta 似乎没有被并行化 - 耗时太长

postgresql - 使用 Zeppelin Spark 2.0 和 Pyspark 连接到 AWS Redshift