linux - Python - 从经常更新的远程日志文件中读取

标签 linux logfile

我有一个不断写入远程网络设备 (F5 bigip) 的日志文件。我有一个 Linux 跳跃站,我可以从那里获取该日志文件并对其进行解析。我确实找到了一个可以实现“tail -f”的解决方案,但我无法使用 nice 或类似的方法来让我的脚本在注销后继续运行。我可以做的是运行一个 cronjob 并每 5 分钟复制一次文件。我可以处理我下载的文件,但下次我复制它时,它会包含很多通用数据,那么我如何只处理新的数据呢?欢迎任何帮助或建议!

最佳答案

针对您的问题的两种可能(非 python)解决方案。如果你想在注销后保持脚本在你的机器上运行,检查 nohup 结合 & 像:

nohup my_program & >/dev/null

在 linux 机器上,您可以提取两个文件之间的差异

grep -Fxv -f old.txt new.txt > dif.txt

如果文件很大,这可能会很慢。 dif.txt 文件将只包含新内容,并且可以由您的程序检查。也可能有涉及 diff 的解决方案。

关于linux - Python - 从经常更新的远程日志文件中读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40286845/

相关文章:

Python 将文本写入 .tar.gz

c - 执行thread_kill时出现segmentation fault

linux - Bash - 从字符串中提取日期并重新格式化

c - 当其中一个线程收到信号并且没有一个线程阻止它时,是否所有线程都停止了?

r - 如何知道R包依赖哪些linux库?

mysql - 在 OSX 上启用登录 my.cnf 不起作用

python - 从python中的日志文件行中提取数据

Linux Bash - 写入日志 - 没有这样的文件或目录

c++ - 用于服务器的 Linux C++ 看门狗