我正在创建一个脚本来预分析我网站的访问日志。到目前为止,我一直在使用 awk 来获取所需的数据。
我需要能够使用 awk 来分析排名靠前的 URL,但仅限于特定的错误代码。 (在本例中为 404)
简化后的日志结构如下:
'Request Method, URI, Error Code'
GET, /foo, 404
GET, /foo, 200
GET, /foo, 404
GET, /foo, 404
GET, /bar, 200
GET, /bar, 404
GET, /foobar, 404
GET, /foobar, 404
我想要的输出是(列出有 404 错误代码的顶级 URL):
3 /foo
2 /foobar
1 /bar
最佳答案
使用 awk
和 sort
:
awk '$3==404{a[$2]++}END{for(url in a){print a[url], url}}' log.txt | sort -rn
关于linux - awk - 根据错误代码查找排名靠前的 url,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47213752/