java - 登录 Spark

标签 java logging log4j apache-spark

我正在使用 Spark 来分发当前未分发的作业。许多类生成有用的日志记录 (log4j),并且这些类不应该是 Spark 特定的(它们实现过滤操作和内容,因此应该按原样使用它们)。

但是,他们的代码是在从站上执行的,所以我不会将此日志记录回主站。有没有一种聪明的方法,在这些类中没有与 Spark 相关的代码,并且更改尽可能小,来做到这一点?

PS:正如标签所示,我正在使用 Java API。

最佳答案

如果您不想更改代码,您可以考虑配置 log4j 以将日志消息传递到中央位置。 您可以选择例如FlumeAppender , JMSAppender JDBCAppender ...

如果您不喜欢其中任何一个,您可以实现自己的附加程序。

关于java - 登录 Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31069657/

相关文章:

java - 是否有强大的 java.util.logging 系统日志处理程序实现?

java - 为 Web 项目设置 log4j 输出文件 : issue with destination folder

Java Hashmap,其中键是文件,值是模型

java - 求和求1000下5的最大倍数

java - Spring Boot - 日志记录环境值无法打开并将被忽略

log4j-extras MaxBackupIndex 或类似的

java - Tomcat 没有为其内部日志记录选择 Log4j 配置

java - 对称差异 b/w 未排序数组

java - 使用单选按钮上的 onclick 函数生成动态表

logging - 如何删除prometheus日志文件?无法使用systemd启动prometheus