python - 打印 SparkSession 配置选项

标签 python apache-spark pyspark

当我启动 pyspark 时,会自动生成一个 SparkSession 并作为“spark”提供。我想打印/查看 spark session 的详细信息,但在访问这些参数时遇到很多困难。

Pyspark 自动创建一个 SparkSession。这可以使用以下代码手动创建:

from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("PythonSQL")\ 
        .config("spark.some.config.option", "some-value")\ 
        .getOrCreate()

我想查看/打印应用名称和配置选项。我希望看到这些的原因是我遇到的另一个问题可能会阐明这一点。

最佳答案

可以使用 SparkContext 访问应用程序名称:

spark.sparkContext.appName

可以使用 RuntimeConfig 访问配置:

from py4j.protocol import Py4JError

try: 
   spark.conf.get("some.conf")
except Py4JError as e:
   pass

关于python - 打印 SparkSession 配置选项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39417743/

相关文章:

python - 如何防止 sys.exit(N) 在嵌入式 python 中完成整个过程?

python - 一个对象中的多维数组切片

r - 尝试使用 Sparklyr 将 R 连接到 Spark

azure - 使用 Databricks 上的 Pyspark 访问 Azure ADLS gen2

azure - 尝试使用 PySpark 从 ADLS Gen2 读取 csv 时,没有方案 "az"的文件系统错误

python - 当直接从 `object` 继承时,我应该调用 super().__init__() 吗?

apache-spark - Spark中高效读取嵌套 Parquet 列

sql - SparkSQL 错误表未找到

python - 将字符串列表转换为 Python 数据框 - pyspark python Sparksql

python - Django 以 10 为基数的 int() 的文字无效 : 'game_count'