python - 如何停止 SparkContext

标签 python apache-spark pyspark

如何停止当前运行的任何 Spark 上下文。

信息 API:斯卡拉 Spark版本:Spark 2.3

实际上我已经创建了 Spark 上下文。为了阻止他们我应该输入例如instance.stop() 但无法记住 Spark 上下文的实例名称。那么如何停止运行 Spark 上下文呢?

或者有什么方法可以重置我在spark-shell中所做的一切并从头开始?

最佳答案

这并不能真正回答您的问题,但可能有助于防止将来出现此问题。

您可以(应该?)使用 atexit 模块来确保退出 python 时自动调用 Spark 上下文的 .stop()

import atexit

#spark configuration code here
sc = SparkContext(conf = conf)

atexit.register(lambda: sc.stop())

关于python - 如何停止 SparkContext,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52955929/

相关文章:

apache-spark - 如何在 Spark SQL 中完成高度倾斜的连接?

apache-spark - Kryo序列化器如何在Spark中分配缓冲区

Python 字符串/参数操作

python - python 更新后 Pygame 变慢

python - 没有在 PyCharm 中添加 WSL python 解释器的菜单

pyspark - 如何将从逻辑回归模型获得的系数映射到pyspark中的特征名称

apache-spark - 如何在 Python 中从 pySpark 添加 SparkListener?

python - 如何准确地找出从哪里执行打印

scala - Spark 内存限制超出问题

scala - 使用 pyspark 读取 csv 文件时获取格式错误记录的列名称