在某些情况下,我需要立即强制刷新 logback 的文件附加程序。我在 docs 中找到了默认情况下启用此选项。奇怪的是,这不起作用。正如我在源代码中看到的那样,底层过程正确地涉及 BufferedOutputSream
。 BufferedOutputSream.flush()
有什么问题吗?这可能与冲洗问题有关。
更新: 我在 Windows XP Pro SP 3 和 Red Hat Enterprise Linux Server 版本 5.3 (Tikanga) 上发现了这个问题。 我使用了这些库:
jcl-over-slf4j-1.6.6.jar
logback-classic-1.0.6.jar
logback-core-1.0.6.jar
slf4j-api-1.6.6.jar
logback.xml
是:
<configuration>
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>/somepath/file.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
<fileNamePattern>file.log.%i</fileNamePattern>
<minIndex>1</minIndex>
<maxIndex>3</maxIndex>
</rollingPolicy>
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<maxFileSize>5MB</maxFileSize>
</triggeringPolicy>
<encoder>
<pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
</encoder>
</appender>
<root level="debug">
<appender-ref ref="FILE"/>
</root>
</configuration>
更新: 我会提供一个单元测试,但这似乎并不那么简单。 让我更清楚地描述这个问题。
- 发生记录事件
- 事件被传递到文件追加器
- 事件按定义的模式序列化
- 事件的序列化消息被传递给文件追加器并且是 即将写出到输出流
- 写入流已完成,输出流已刷新(我已经
检查实现)。请注意
immidiateFlush
为真 默认 so 方法flush()
被显式调用 - 文件中没有结果!
稍后,当一些底层缓冲区流动时,事件出现在文件中。 所以问题是:输出流是否保证立即刷新?
老实说,我已经通过实现我自己的 ImmediateRollingFileAppender
解决了这个问题,它利用了 FileDescriptor
的即时同步功能。有兴趣的可以关注this .
所以这不是一个 logback 问题。
最佳答案
我决定把我的解决方案带给大家。 首先让我澄清一下,这不是 logback 问题,也不是 JRE 问题。这在 javadoc 中有描述。在您遇到一些关于文件同步的老式集成解决方案之前,通常应该不是问题。
所以这是一个实现立即刷新的 logback appender:
public class ImmediateFileAppender<E> extends RollingFileAppender<E> {
@Override
public void openFile(String file_name) throws IOException {
synchronized (lock) {
File file = new File(file_name);
if (FileUtil.isParentDirectoryCreationRequired(file)) {
boolean result = FileUtil.createMissingParentDirectories(file);
if (!result) {
addError("Failed to create parent directories for [" + file.getAbsolutePath() + "]");
}
}
ImmediateResilientFileOutputStream resilientFos = new ImmediateResilientFileOutputStream(file, append);
resilientFos.setContext(context);
setOutputStream(resilientFos);
}
}
@Override
protected void writeOut(E event) throws IOException {
super.writeOut(event);
}
}
这是对应的输出流实用类。由于最初应该用于扩展的原始 ResilientOutputStreamBase
的某些方法和字段具有打包的访问修饰符,我不得不扩展 OutputStream
而只是复制 的其余部分和未更改的部分ResilientOutputStreamBase
和 ResilientFileOutputStream
到这个新的。我只是显示更改后的代码:
public class ImmediateResilientFileOutputStream extends OutputStream {
// merged code from ResilientOutputStreamBase and ResilientFileOutputStream
protected FileOutputStream os;
public FileOutputStream openNewOutputStream() throws IOException {
return new FileOutputStream(file, true);
}
@Override
public void flush() {
if (os != null) {
try {
os.flush();
os.getFD().sync(); // this's make sence
postSuccessfulWrite();
} catch (IOException e) {
postIOFailure(e);
}
}
}
}
最后是配置:
<appender name="FOR_INTEGRATION" class="package.ImmediateFileAppender">
<file>/somepath/for_integration.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
<fileNamePattern>for_integration.log.%i</fileNamePattern>
<minIndex>1</minIndex>
<maxIndex>3</maxIndex>
</rollingPolicy>
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<maxFileSize>5MB</maxFileSize>
</triggeringPolicy>
<encoder>
<pattern>%d{HH:mm:ss.SSS} - %msg%n</pattern>
<immediateFlush>true</immediateFlush>
</encoder>
</appender>
关于java - Logback 文件附加程序不会立即刷新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11829922/