je fais des essais mais je dois pas être bien doué car ça ne fonctionne pas vraiment ! 
 
voici mon fichier maintenant.
	
	1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
   | #!/bin/sh
#backup of the bioinformatics website
#every week (see crontab -e for more details)
 
 
###################################################################
### save the website   ############################################
LOG=log_backup_website
USER=patons
PASS=******
DESTINATION=/var/backups
PATH=/var/www
DATE_CMD=/bin/date
DATE=`$DATE_CMD +%Y-%m-%d`
WEEK=`$DATE_CMD +%W`
FILENAME=www.$WEEK.$DATE.tar.gz
let "DEL=$WEEK-4"
 
tar cfvz $FILENAME $PATH/CTFS $PATH/bioiogeodb $PATH/bold $PATH/css $PATH/maps 1>$LOG 2>&1
mv -f $PATH/$FILENAME $DESTINATION 1>$LOG 2>&1
 
###################################################################
### FTP transfert #################################################
 
sftp webbackup:******@***.***.***.*** 1>$LOG 2>&1
scp $DESTINATION/$FILENAME webbackup@***.***.***.***:/home/webbackup/website_backup 1>$LOG 2>&1
exit
 
##################################################################
### REMOVE OLD FILES ############################################
rm -rf $DESTINATION/www.$DEL.*.tar.gz 1>$LOG 2>&1  | 
 je l'execute en faisant :
	
	STRI-DB01:/usr/local/bin# ./backup_website
 ça dure une fraction de seconde, J'ai aucune archive de créée et voici le log:
	
	./backup_website: line 27: scp: command not found
 Avant j'utilisais "mput", puis "put" mais j'avais le même message !
qu'est ce qui cloche selon vous?
						
					
Partager