<分区>
我有一个 VPS,有几十个网站,我需要定期备份,比如说一周备份两次(周日晚上 11 点和周三晚上 11 点)。
我在服务器管理和用户 exp 方面只有很少的经验。使用 Linux(我尝试使用 Linux 2 年)。
我需要备份的文件在/var/www/hosting/webXX/www/dirs (XX 表示 web1, web2, ... web50)。编辑:在 webXX 目录中有更多目录,我只需要这个 (www)。
我试图为此找到一个 bash 脚本,但没有结果。在 bash 脚本中我没有 exp。然后我只用 cron 调用脚本。
在星期一和星期四,我想将一个压缩文件下载到我的计算机(手动,如果不能自动下载的话)。
谢谢。 罗马
编辑: 好的,我尝试了没有 bash 的解决方案。 在通过 ssh 的命令行中,
ssh root@server '( cd /var/www/hosting/web*/www/ && tar cfz - . )' > backup.tar.gz
它不是自动的(像 bash 脚本),我必须手动启动它。
问题:我只需要第一个网络,而不是递归地处理所有网络。
有什么想法吗?