python - 如何将 pyspark 日志记录级别设置为调试?

标签 python apache-spark pyspark

任何人都可以帮助我设置日志记录级别以调试和捕获更多日志所需的 spark 配置

最佳答案

在 sparksession 中将 setLogLevel 属性设置为 DEBUG

from pyspark.sql import SparkSession
spark = SparkSession.builder.master('local').appName('test').getOrCreate()
spark.sparkContext.setLogLevel("DEBUG")

#or

log4j = sc._jvm.org.apache.log4j
log4j.LogManager.getRootLogger().setLevel(log4j.Level.DEBUG)

#for custom log
log4j.LogManager.getRootLogger().info("custom log")
#2020-05-06 13:43:42 INFO  root:? - custom log

关于python - 如何将 pyspark 日志记录级别设置为调试?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61642331/

相关文章:

python - 编辑 Dataframe Pandas 中的行数据

python - Pandas :drop_duplicates 有条件

java - Java代码如何向Spark注册无参数UDF

python-3.x - 是否可以使用 python/pyspark 从 RavenDB 中的数据库加载整个集合?

python - Pyspark - 将 json 字符串转换为 DataFrame

python - Bokeh 散点图中的色点

python - 确定 Amazon EC2 实例创建日期/时间

scala - 从 Spark DataFrame 中的单个列派生多个列

scala - 从 csv 文件加载约束(amazon deequ)

hadoop - 执行mapreduce作业时PySpark抛出错误