站长都知道,网站数据就是站长的生命,辛苦几个月,如果数据没了,一夜恢复到解放前,勤于备份是非常有必要的,今天分享一个美国服务器和美国VPS使用 linux系统时,自动备份网站数据的方法。
每日自动备份网站数据及数据库上传FTP,这个方式,主要是一个脚本(包含压缩网站数据及数据库,上传),然后用cron命令每天在指定时间段运行,下面请看脚本代码(脚本内信息需自行设定)
#!/bin/bash #以下信息请自行修改 MYSQL_USER=***** #mysql用户名 MYSQL_PASS=****** #mysql密码 MAIL_TO=****@***** #数据库发送到的邮箱 FTP_USER=******** #ftp用户名 FTP_PASS=****** #ftp密码 FTP_IP=*.*.*.* #ftp地址 FTP_backup=backup #ftp上存放备份文件的目录,这个要自己得ftp上面建的 WEB_DATA=/home/wwwroot #要备份的网站数据 #以上信息自行修改 #定义数据库的名字和旧数据库的名字 DataBakName=Data_$(date +"%Y%m%d").tar.gz WebBakName=Web_$(date +%Y%m%d).tar.gz OldData=Data_$(date -d -5day +"%Y%m%d").tar.gz OldWeb=Web_$(date -d -5day +"%Y%m%d").tar.gz #删除本地3天前的数据 rm -rf /home/backup/Data_$(date -d -3day +"%Y%m%d").tar.gz /home/backup/Web_$(date -d -3day +"%Y%m%d").tar.gz cd /home/backup #导出数据库,一个数据库一个压缩文件 for db in `/usr/local/mysql/bin/mysql -u$MYSQL_USER -p$MYSQL_PASS -B -N -e 'SHOW DATABASES' | xargs`; do (/usr/local/mysql/bin/mysqldump -u$MYSQL_USER -p$MYSQL_PASS ${db} | gzip -9 - > ${db}.sql.gz) done #压缩数据库文件为一个文件 tar zcf /home/backup/$DataBakName /home/backup/*.sql.gz rm -rf /home/backup/*.sql.gz #发送数据库到Email,如果数据库压缩后太大,请注释这行 #echo "主题:数据库备份" | mutt -a /home/backup/$DataBakName -s "内容:数据库备份" $MAIL_TO #压缩网站数据 tar zcf /home/backup/$WebBakName $WEB_DATA #上传到FTP空间,删除FTP空间5天前的数据 ftp -v -n $FTP_IP << END user $FTP_USER $FTP_PASS type binary cd $FTP_backup delete $OldData delete $OldWeb put $DataBakName put $WebBakName bye END
将以上脚本按照您服务器登录信息及网站数据密码等信息设定后,存为AutoBack.sh,然后上传至服务器的root目录下。
下面就是给脚本赋予执行的权限
chmod +x /root/AutoBack.sh
接下来我们可以测试下这个脚本是否正常工作,ssh登陆手动运行脚本,查看相关FTP位置是否收到数据。如果一切正常,我们再用cron实现每日自动运行这个脚本
crontab –e
添加以下任务
00 03 * * * /root/AutoBack.sh
任务的时间可以自行设定,比如上面代码中的00 02,就是2点,尽量选择您网站访客最少的时间段,一般在凌晨以后执行。
未经允许不得转载:主机推荐 » 美国服务器Linux系统自动网站数据备份:脚本上传FTP