je fais des essais mais je dois pas être bien doué car ça ne fonctionne pas vraiment !
voici mon fichier maintenant.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
| #!/bin/sh
#backup of the bioinformatics website
#every week (see crontab -e for more details)
###################################################################
### save the website ############################################
LOG=log_backup_website
USER=patons
PASS=******
DESTINATION=/var/backups
PATH=/var/www
DATE_CMD=/bin/date
DATE=`$DATE_CMD +%Y-%m-%d`
WEEK=`$DATE_CMD +%W`
FILENAME=www.$WEEK.$DATE.tar.gz
let "DEL=$WEEK-4"
tar cfvz $FILENAME $PATH/CTFS $PATH/bioiogeodb $PATH/bold $PATH/css $PATH/maps 1>$LOG 2>&1
mv -f $PATH/$FILENAME $DESTINATION 1>$LOG 2>&1
###################################################################
### FTP transfert #################################################
sftp webbackup:******@***.***.***.*** 1>$LOG 2>&1
scp $DESTINATION/$FILENAME webbackup@***.***.***.***:/home/webbackup/website_backup 1>$LOG 2>&1
exit
##################################################################
### REMOVE OLD FILES ############################################
rm -rf $DESTINATION/www.$DEL.*.tar.gz 1>$LOG 2>&1 |
je l'execute en faisant :
STRI-DB01:/usr/local/bin# ./backup_website
ça dure une fraction de seconde, J'ai aucune archive de créée et voici le log:
./backup_website: line 27: scp: command not found
Avant j'utilisais "mput", puis "put" mais j'avais le même message !
qu'est ce qui cloche selon vous?
Partager