我有一个不断写入远程网络设备 (F5 bigip) 的日志文件。我有一个 Linux 跳跃站,我可以从那里获取该日志文件并对其进行解析。我确实找到了一个可以实现“tail -f”的解决方案,但我无法使用 nice 或类似的方法来让我的脚本在注销后继续运行。我可以做的是运行一个 cronjob 并每 5 分钟复制一次文件。我可以处理我下载的文件,但下次我复制它时,它会包含很多通用数据,那么我如何只处理新的数据呢?欢迎任何帮助或建议!
最佳答案
针对您的问题的两种可能(非 python)解决方案。如果你想在注销后保持脚本在你的机器上运行,检查 nohup
结合 &
像:
nohup my_program & >/dev/null
在 linux 机器上,您可以提取两个文件之间的差异
grep -Fxv -f old.txt new.txt > dif.txt
如果文件很大,这可能会很慢。 dif.txt 文件将只包含新内容,并且可以由您的程序检查。也可能有涉及 diff
的解决方案。
关于linux - Python - 从经常更新的远程日志文件中读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40286845/