apache-spark - 在 spark 2.3 中使用 G1GC 垃圾收集器

标签 apache-spark pyspark garbage-collection g1gc

我正在尝试使用 G1GC 垃圾收集器进行 Spark 作业,但我得到了

Error: Invalid argument to --conf: -XX:+UseG1GC

我尝试使用这些选项,但无法使其正常工作
spark-submit --master spark://192.168.60.20:7077 --conf -XX:+UseG1GC /appdata/bblite-codebase/test.py


spark-submit --master spark://192.168.60.20:7077 -XX:+UseG1GC /appdata/bblite-codebase/test.py

调用G1GC 的正确方法是什么? Spark 收集器?

最佳答案

JVM 选项应作为 spark.executor.extraJavaOptions 传递/spark.driver.extraJavaOptions , IE。

 --conf "spark.executor.extraJavaOptions=-XX:+UseG1GC"

关于apache-spark - 在 spark 2.3 中使用 G1GC 垃圾收集器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50856342/

相关文章:

java - 当我使用套接字时垃圾收集器循环

scala - 处理 Spark Scala API 交叉连接的最佳方法,导致左右数据帧的列名称相同

apache-spark - 如何拆分一个巨大的rdd并轮流广播?

python - Pyspark CSV 到 RDD 到坐标矩阵

python-3.x - 如何从 python 获取有关 spark 作业和阶段的数据

垃圾回收 : static variables not lasting through the applications lifetime

apache-spark - 即使在设置了相当长的超时值 1000 秒后,Spark 执行程序也会因超时而丢失

python - Pyspark:从 pyspark 数据帧中删除 UTF 空字符

python - PySpark:将 RDD 转换为数据框中的列

go - 在 golang 中,变量超出循环或条件或案例的范围后会发生什么?