apache-spark - 如何在 Windows 上以独立模式设置 Spark log4j 路径?

标签 apache-spark log4j

我已经尝试在 hadoop-home/conf 中将 log4j.properties.template 更改为 log4j.properties,但 spark 仍然无法识别它。我试过设置

sparkconf.set("log4j.configuration", ".\\config\\log4j.properties");

但这也行不通。我也尝试添加

-Dlog4j.configuration=.\config\log4j.properties

到 eclipse 运行配置但不起作用。 Spark 在启动期间仍然使用其默认值

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties

我还将 SPARK_CONF_DIR 设置为我的环境变量以指向 spark/conf 目录,但这似乎也不起作用。

我在 eclipse 中以 Windows 独立模式运行它

SparkConf sparkConf = new SparkConf().setAppName("Test").setMaster("local[1]")
                .set("log4j.configuration", ".\\config\\log4j.properties");

最佳答案

我遇到过类似的问题

sparkconf.set("log4j.configuration", "path to log4j.properties");

解决方法是使用

import org.apache.log4j.PropertyConfigurator

PropertyConfigurator.configure("path to log4j.properties")

关于apache-spark - 如何在 Windows 上以独立模式设置 Spark log4j 路径?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31861883/

相关文章:

java - 如何使 log4j 也写入控制台

apache-spark - 当数据量远大于Cluster可用内存时,Spark如何进行内存计算

java - 运行 Junit 测试时,为什么日志消息没有写入我的日志文件?

java - 将 SizeBasedTriggeringPolicy 与 log4j 一起使用会出现问题吗?

apache-spark - Spark 性能调优 - 执行器数量与核心数量

java - 为应用程序中的所有线程设置 ThreadContext

tomcat - 即使没有什么可写的,Log4j 也会继续写入日志文件?

azure - Pyspark - 通过 Synapse Notebook 读取 Log Analytics 表

scala - 在 SparkML Transformer 中缓存数据集

Hadoop、 Apache 星火