rest - 什么是在Logstash中提取Rest API的正确方法

标签 rest elasticsearch kibana logstash-grok logstash-configuration

我有这种日志
21.4.1.2--[28 / Dec / 2016:12:18:40 +0000]“GET a / b / c / d / e / f HTTP / 1.1” 200984072“Mozilla / 5.0(Windows NT 10.0; WOW64) AppleWebKit / 537.36(KHTML,例如Gecko)Chrome / 55.0.2883.87 Safari / 537.36“0.104 0.103。
现在,我应该如何使用grok模式提取此内容?
我也不知道字段的数量,即rest api也可以是a / b / c和a / b / c / d / e / f / g。我应该如何处理以便可以在基巴纳语中按a,b或c分组。

最佳答案

如果深度已知,则可以将URL字段重新添加到这些字段中。

如果存在任意深度,则可以使用mutate-split进行排列,但是它们不会有用。

csv {}过滤器怎么样?该过滤器可以使用“/”作为分隔符,并产生一堆名为“column1”,“column2”等的字段?

关于rest - 什么是在Logstash中提取Rest API的正确方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41363229/

相关文章:

amazon-web-services - 将 Kubernetes 集群日志发送到 AWS Elasticsearch

python - 如何更正关于单独 Python 文件的 "ModuleNotFoundError' "?

java - Spring Rest 操作将响应转换为类

date - elasticsearch 中的日期舍入如何工作,它如何影响缓存流失?

c# - 如何在Elasticsearch上使用NEST进行的查询中访问脚本字段?

elasticsearch - 插件[ingest-geoip]是为Elasticsearch版本6.2.4构建的,但是版本6.5.0正在运行

rest - Azure 网站 Kudu REST API - 身份验证

asp.net - 为什么.Net WebApi 不自动检测请求内容类型并进行自动绑定(bind)?

elasticsearch - 根据大小索引生命周期管理策略配置删除索引 Elasticsearch

elasticsearch - Kibana 4中 “analysed”按钮的作用是什么?