apache-spark - 如果我通过 pip install pyspark 安装了 pyspark,在哪里修改 spark-defaults.conf

标签 apache-spark pyspark

我通过 pip install pyspark 安装了 pyspark 3.2.0。我在名为 pyspark 的 conda 环境中安装了 pyspark。我找不到 spark-defaults.conf。我正在 ~/miniconda3/envs/pyspark/lib/python3.9/site-packages/pyspark 中搜索它,因为这是我对 SPARK_HOME 应该是什么的理解。

  1. 我在哪里可以找到 spark-defaults.conf?我要修改
  2. 我将 SPARK_HOME 设置为 pyspark ~/miniconda3/envs/pyspark/lib/python3.9/site-packages/pyspark 的安装位置是否正确?

最佳答案

2SPARK_HOME 环境变量配置正确。

1。在pip安装环境中,需要手动创建$SPARK_HOME/conf目录,然后将配置文件模板复制到该目录下,修改各个配置文件。

关于apache-spark - 如果我通过 pip install pyspark 安装了 pyspark,在哪里修改 spark-defaults.conf,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70253784/

相关文章:

apache-spark - 在数据帧中使用 dropDuplicates 会导致分区号发生变化

apache-spark - 在将 PySpark 作业提交到 Google Dataproc 时从 requirements.txt 初始化虚拟环境

json - PySpark:如何读取多个 JSON 文件,每个文件有多条记录

apache-spark - 出现OutofMemoryError-GC开销限制超出pyspark中的限制

python - 在 PySpark 中对 groupBy 的每一组执行 PCA

scala - Spark 1.5.1,MLLib 随机森林概率

apache-spark - 无法解析给定输入列 : Spark-SQL 的 'columnname'

apache-spark - Pyspark 的 RandomForestRegressionModel 是如何存储在 HDFS 中的?

apache-spark - 我们在yarn cluster中运行时在哪里可以看到spark输出控制台

python - 如何从每行都是字典的 RDD 创建 DataFrame?