amazon-web-services - 如何在 AWS glue 中检查 Spark 和 Hadoop 的版本?

标签 amazon-web-services apache-spark hadoop aws-glue aws-glue-data-catalog

我通过(基本支持计划)使用 AWS。我想知道 AWS 粘合作业中使用了哪个版本的 Spark 和 Hadoop (HDFS)。这样我就可以在我的本地机器上设置相同的环境进行开发。

或者,如果我了解了 Spark 的版本,那么对应 AWS 胶水作业使用的是哪个 Hadoop 版本,反之亦然。

因为我使用的是基本支持计划。所以,我无法向支持中心提出案例。 知道在哪里可以检查 AWS 胶水作业...Spark 和 Hadoop 版本吗?

感谢任何形式的帮助和建议。谢谢!

最佳答案

如果您使用的是 Spark > 2.0,则

1.在 Pyspark 中:

获取 Spark 版本:

print("Spark Version:" + spark.version)

spark < 2.0 中:

sc.version

获取 Hadoop 版本:

print("Hadoop version: " + sc._gateway.jvm.org.apache.hadoop.util.VersionInfo.getVersion())

2.在 Scala 中:

Spark 版本:

println ("Spark Version:" + spark.version)

spark < 2.0 中:

sc.version

Hadoop 版本:

println("Hadoop version: " + org.apache.hadoop.util.VersionInfo.getVersion())

关于amazon-web-services - 如何在 AWS glue 中检查 Spark 和 Hadoop 的版本?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56620493/

相关文章:

scala - 按日期周期从 Spark 中的 S3 读取多个文件

使用 between 子句连接两个 pyspark 数据帧以从一系列 Ip 中查找 ip 详细信息

postgresql - 如何使用sqoop命令同时插入和更新到PostgreSQL

java - DynamoDB 用户管理的用户组

javascript - AWS Cognito 身份池 : AWS Credentials Expiration/Renewal

amazon-web-services - "WaitCondition timed out. Received 0 conditions when expecting 1"云信息错误

amazon-web-services - 更改 Gunicorn Elastic Beanstalk 的超时时间

apache-spark - 在pyspark中,是否可以用另一列填充?

scala - 多scala数据帧连接

hadoop - HTTP ://localhost:50070 does not work HADOOP