python - 有没有办法自动关闭 Spark/jupyter session

标签 python scala pyspark jupyter

我担任 hadoop 管理员和开发人员。我们有一个 CDH 分布的集群。有多个团队使用集群,并且用户不会主动终止 Spark shell session 或 jupyter Notebook session 。

不要询问用户我的想法,而是可以在代码中设置空闲超时或自动关闭配置

我在谷歌上搜索过,但没有找到合适的解决方案。如果有人使用过这种配置共享,那将会很有帮助。

最佳答案

Jupyter 内核 session 的空闲超时可以通过内核管理器的 cull_idle_timeout 配置(检查:https://jupyter-notebook.readthedocs.io/en/stable/config.html)。

如果您通过 Livy 使用 Spark,livy.server.session.timeout 垃圾会收集不活动的 Livy session 。这可以在 Livy 下的 conf/livy.conf 中指定。默认值为一小时。

关于python - 有没有办法自动关闭 Spark/jupyter session ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58925081/

相关文章:

scala - 案例类别默认应用方法

Scala将字符串转换为带有值的枚举

scala - 如何理解和使用scala宏,编写更复杂的函数

apache-spark - 连接两个(非)配对的 RDD 来创建一个 DataFrame

python - 如何使用 ImageDraw 模糊椭圆

python - matplotlib:更改单个体素面颜色

python - 从 Python 设置 gzip 时间戳

javascript - 如何在前端使用 JavaScript Fetch API 从 FastAPI 后端下载文件?

apache-spark - pyspark 计数列中的非空值

json - 将pyspark数据帧转换为嵌套的json结构