apache-spark - 如何停止在 Spark 控制台上显示 INFO 消息?

标签 apache-spark log4j spark-submit

我想停止 Spark shell 上发出的各种消息。

我尝试编辑 log4j.properties 文件以阻止这些消息。

这是log4j.properties的内容

# Define the root logger with appender file
log4j.rootCategory=WARN, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

# Settings to quiet third party logs that are too verbose
log4j.logger.org.eclipse.jetty=WARN
log4j.logger.org.eclipse.jetty.util.component.AbstractLifeCycle=ERROR
log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO
log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO

但是消息仍然显示在控制台上。

以下是一些示例消息

15/01/05 15:11:45 INFO SparkEnv: Registering BlockManagerMaster
15/01/05 15:11:45 INFO DiskBlockManager: Created local directory at /tmp/spark-local-20150105151145-b1ba
15/01/05 15:11:45 INFO MemoryStore: MemoryStore started with capacity 0.0 B.
15/01/05 15:11:45 INFO ConnectionManager: Bound socket to port 44728 with id = ConnectionManagerId(192.168.100.85,44728)
15/01/05 15:11:45 INFO BlockManagerMaster: Trying to register BlockManager
15/01/05 15:11:45 INFO BlockManagerMasterActor$BlockManagerInfo: Registering block manager 192.168.100.85:44728 with 0.0 B RAM
15/01/05 15:11:45 INFO BlockManagerMaster: Registered BlockManager
15/01/05 15:11:45 INFO HttpServer: Starting HTTP Server
15/01/05 15:11:45 INFO HttpBroadcast: Broadcast server star

我该如何阻止这些?

最佳答案

编辑您的 conf/log4j.properties 文件并更改以下行:

log4j.rootCategory=INFO, console

log4j.rootCategory=ERROR, console

另一种方法是:

启动spark-shell并输入以下内容:

import org.apache.log4j.Logger
import org.apache.log4j.Level

Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("akka").setLevel(Level.OFF)

此后您将不会看到任何日志。

级别的其他选项包括:alldebugerrorfatalinfo关闭tracetrace_int警告

Details about each can be found in the documentation.

关于apache-spark - 如何停止在 Spark 控制台上显示 INFO 消息?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27781187/

相关文章:

java.lang.NoClassDefFoundError : better/files/File in spark-sbumit for scala code

apache-spark - Spark (PySpark) 文件已存在异常

apache-spark - 如何将 Spark 实时流与另一个流在其整个生命周期中收集的所有数据一起加入?

linux - 在现有的 Hadoop 集群上安装 Spark

javascript - logger.log 没有记录到 alfresco.log

java - 无法使用 log4j DailyRollingFileAppender 将日期附加到文件名

csv - 使用 Spark 将 CSV 转换为 parquet,保留分区

java - log4j RollingFileAppender 与 DailyRollingFileAppender 之间有什么区别

scala - Dataproc 参数未在 spark 提交上读取

apache-spark - Spark 异步作业失败并出现错误