elasticsearch - 获取 Logstash-forwarder 机器的 IP 地址

标签 elasticsearch logstash kibana logstash-grok logstash-forwarder

我已经在我的系统上安装了 Elasticsearch、Logstash、Kibana 日志查看工具。现在我的配置中有 2 台机器(Amazon EC2 实例):

  • 54.251.120.171 - 安装 ELK 的 Logstash 服务器
  • 54.249.59.224 - Logstash-forwarder - 发送“/var/logs/messages”日志到 Logstash-server

在 logstash-server 上,这是我的配置(在不同文件中)的样子:-

input {
  lumberjack {
    port => 5000
    type => "logs"
    ssl_certificate => "/etc/pki/tls/certs/logstash-forwarder.crt"
    ssl_key => "/etc/pki/tls/private/logstash-forwarder.key"
  }
}




filter {
 if [type] == "syslog" {

    grok {
      match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program}(?:\[%{POSINT:syslog_pid}\])?: %{GREEDYDATA:syslog_message}" }
      add_field => [ "received_at", "%{@timestamp}" ]
      add_field => [ "received_from", "%{host}" ]
    }
    syslog_pri { }
    date {
      match => [ "syslog_timestamp", "MMM  d HH:mm:ss", "MMM dd HH:mm:ss" ]
    }
  }
}


output {
  elasticsearch { host => localhost }
  stdout { codec => rubydebug }
}

在 logstash-forwarder 上,这是我的配置文件的样子,它将/var/log/messages、/var/log/secure 日志转发到 logstash-server

{
    "network": {
        "servers": [ "54.251.120.171:5000" ],
        "timeout": 15,
        "ssl ca": "/etc/pki/tls/certs/logstash-forwarder.crt"
    },

    "files": [
        {
        "paths": [
                "/var/log/messages",
                "/var/log/secure"
        ],
        "fields": { "type": "syslog" }
        }
    ]
}

这是我的 Kibana 界面在从 Elasticsearch 获取索引日志后的样子。 enter image description here

所以我的问题是,我需要一种方法来检索 logstash-forwarder 的 IP 地址,即 54.249.59.224,以防出现日志事件。

我问这个问题的原因是在真实场景中,我们可能有很多 logstash-forwarder(比如 10 个),所有 10 个都将日志发送到我们的 logstash-server。所以我需要以某种方式标记所有日志事件,以便我可以识别哪个 logstash-server 发送了哪个日志事件。

我需要使用 IP 地址(可能还有一些其他信息)在 Kibana 界面中搜索日志事件。

有人可以帮我做这个吗? :)

或者如果有人有更好的想法如何以不同的方式有效地做到这一点,非常欢迎您!

最佳答案

您需要修改 Lumberjack 输入过滤器和服务器才能执行此操作。请参阅以下差异:

https://github.com/stanhu/logstash-input-lumberjack/commit/0861c9d95caa46370f17a82353710bc78ea2c82e

https://github.com/stanhu/logstash-forwarder/commit/b711d273a24ab3fe1b4a7b6005d2f26983cac859

在这些更改合并到 logstash-forwarder 和 logstash-input-lumberjack 之前,现在最简单的使用方法是直接修改安装的文件。如果您使用的是当前的 Debian 软件包,它们在此处:

/opt/logstash/lib/logstash/inputs/lumberjack.rb
/opt/logstash/vendor/bundle/jruby/1.9/gems/jls-lumberjack-0.0.20/lib/lumberjack/server.rb

到输入过滤器配置文件(例如/etc/logstash/conf.d/01-lumberjack-input.conf),添加:

client_address_field => "client_address"

您的 logstash 配置应如下所示:

input {
  lumberjack {
    host => "localhost"
    port => 5000
    type => "logs"
    ssl_certificate => "/etc/pki/tls/certs/logstash-forwarder.crt"
    ssl_key => "/etc/pki/tls/private/logstash-forwarder.key"
    client_address_field => "client_address"
  }
}

在机器上重新启动 logstash,并检查 client_address 字段现在是否被添加到每条消息中。

关于elasticsearch - 获取 Logstash-forwarder 机器的 IP 地址,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26971079/

相关文章:

boost - 在_all上使用Wildcardsearch boost Elasticsearch

elasticsearch - 如何结合多个匹配查询?

c# - Elasticsearch :从JSON到NEST的查询,没有重复项

logstash - 如果多个 grok 匹配之一,则防止 _grokparsefailure

ruby - 使用 ElasticSearch 时的 Logstash 错误消息输出 = >"Failed to flush outgoing items"

json - 我想使用powershell将convert.d csv加载到json文件文档以进行elasticsearch

azure - Elk Logstash 无法连接到事件中心 Azure

elasticsearch - Kibana不创建,我的数据指标

elasticsearch - 使用ELK堆栈绘制图 block map

amazon-web-services - AWS 用户管理上的 Kibana : Created new user but can't see my index patterns