log4j - 如何摆脱 "Using Spark' s 默认 log4j 配置文件 : org/apache/spark/log4j-defaults. 属性”消息?

标签 log4j apache-spark

我试图抑制消息

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties

当我运行我的 Spark 应用程序时。我已成功重定向 INFO 消息,但是此消息一直显示。任何想法将不胜感激。

最佳答案

更简单的你只是cd SPARK_HOME/conf然后 mv log4j.properties.template log4j.properties然后打开log4j.properties并更改所有 INFOERROR .这里SPARK_HOME是 Spark 安装的根目录。

有些人可能正在使用 hdfs作为他们的 Spark 存储后端,并且会发现日志消息实际上是由 hdfs 生成的.要更改此设置,请转到 HADOOP_HOME/etc/hadoop/log4j.properties文件。只需更改 hadoop.root.logger=INFO,consolehadoop.root.logger=ERROR,console .再次HADOOP_HOME对我来说是你的 hadoop 安装的根,这是 /usr/local/hadoop .

关于log4j - 如何摆脱 "Using Spark' s 默认 log4j 配置文件 : org/apache/spark/log4j-defaults. 属性”消息?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30924710/

相关文章:

java - 禁用log4j 2异常(apache异常)

java - log4j.properties 配置

apache-spark - Tableau 连接到 Spark SQL

scala - 使用SBT构建Scala/Spark项目时的警告

apache-spark - Apache Ignite 和 Tachyon 有什么区别

apache-spark - 为什么 pyspark 中没有数据帧的映射函数,而 spark 等价物有它?

java - DailyRollingFileAppender 中的 Log4j FileNamePattern

java - 使用 logback,但不知何故 log4j 被初始化

java - 通过扩展AppenderSkeleton来编写自己的appender?

scala - 如何更改 Spark 数据框中的列位置?