python - 如何在交互式 PySpark session 中更改 SparkContext 属性

标签 python apache-spark pyspark

如何在 pyspark 交互式 shell 中更改 spark.driver.maxResultSize?我使用了以下代码

from pyspark import SparkConf, SparkContext
conf = (SparkConf()
    .set("spark.driver.maxResultSize", "10g"))
sc.stop()
sc=SparkContext(conf)

但它给了我错误

AttributeError: 'SparkConf' object has no attribute '_get_object_id'

最佳答案

Spark 2.3.1 中更新配置

要更改默认的 spark 配置,您可以按照以下步骤操作:

导入需要的类

from pyspark.conf import SparkConf
from pyspark.sql import SparkSession

获取默认配置

spark.sparkContext._conf.getAll()

更新默认配置

conf = spark.sparkContext._conf.setAll([('spark.executor.memory', '4g'), ('spark.app.name', 'Spark Updated Conf'), ('spark.executor.cores', '4'), ('spark.cores.max', '4'), ('spark.driver.memory','4g')])

停止当前的 Spark session

spark.sparkContext.stop()

创建 Spark session

spark = SparkSession.builder.config(conf=conf).getOrCreate()

关于python - 如何在交互式 PySpark session 中更改 SparkContext 属性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32362783/

相关文章:

python - Django:存储用户偏好

python - 如何对numpy数组的每两列执行操作?

python - Pyspark - 2 个数据帧之间的区别 - 识别插入、更新和删除

python - Apache pyspark 使用 oracle jdbc 拉取数据。找不到驱动程序

python - 在 PySpark 中将十进制解码为二进制信息

pyspark - spark join 引发 "Detected cartesian product for INNER join"

python - Scrapy:从 .py 文件导入项目失败

python - 如何检测并绘制 asc 文件的强度

scala - 如何计算数据帧中每行到常量引用数组的欧几里德距离

java - 处理来自 s3 的大文件,没有内存问题