logging - Logstash 输入文件 - 从桌面文件读取

标签 logging elasticsearch logstash kibana

我在从桌面上的源文件读取日志时遇到问题。我当前的 Logstash 配置文件是:

input 
{
  file 
  {
    path => ["C:/users/Me/Desktop/Dum.txt"]
  }
}

output 
{
  stdout { }
  elasticsearch { host => localhost }
}

我将输出流式传输到 Kibana,它使用 stdin {} 配置正常工作。

虚拟源文件 (Dum.txt) 是:
2014-05-20T17:42:49.694+0000 MyCompID Agent

配置文件运行,看起来稳定没有问题。

我还尝试使用 CSV 文件进行输入,但运气相同。

感谢您对此的帮助!

最佳答案

(从问题的评论中复制)

我能够解决这个问题。流是打开的,但我必须用新数据保存文件才能读取到 ELK。需要设置 AutoSave 以确保更新文件并生成输出。

只要文本文件以某种方式发生更改,例如添加一行或删除一行数据,Logstash 代理/托运人就会获取更改并将其发送到您的 Elasticsearch 实例。本质上,该文件需要被覆盖或附加到。要查看此内容,请从文件中手动选择所有内容,剪切文本,保存文件,将文本粘贴回文件中,然后再次保存。如果您使用标准输出,您将看到流发布到提示

关于logging - Logstash 输入文件 - 从桌面文件读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23767104/

相关文章:

python - Elasticsearch python 库,如果存在则更新

javascript - 我跟随文档自定义主题时使用弹性ui时遇到问题

logstash - 在 Logstash 中将日期转换为 UNIX 时间

java - 在日志或报告中嵌入方法的内容

logging - Hadoop 作业中的日志记录如何工作?

python - 如何在 Python 日志记录配置文件中指定相对路径?

ruby-on-rails - 有没有办法阻止 rails 记录一切?

elasticsearch - 使用Logstash句柄删除方案的增量索引

elasticsearch - 如何使用FileBeat将管道分隔格式的日志数据以JSON格式发送到Elasticsearch?

elasticsearch - 如何在LAN上启用Elasticsearch