IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Shell et commandes GNU Discussion :

Taille limite copie sur smbfs


Sujet :

Shell et commandes GNU

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre expérimenté
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Juin 2011
    Messages
    223
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Landes (Aquitaine)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2011
    Messages : 223
    Par défaut Taille limite copie sur smbfs
    Bonjour à tous,

    Voici le problème que j'ai:

    J'ai un NAS pour faire la sauvegarde d'un serveur de fichiers qui est sous linux.

    J'ai au début mon script shell (qui s'exécute sur le serveur de fichiers) qui monte donc le partage du NAS sur le serveur :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    smbmount //mon_ip/mon_partage /sauvegarde -o password=""
    Jusque là ça va...

    Et ensuite le script fait la sauvegarde, et qui contient la ligne suivante :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    cp -Rv "$SOURCE" "$DESTINATION"
    Et là, problème. En effet j'ai le message à un certain moiment :

    File size limit exceeded
    Et la copie s'arrête...

    En effet, j'ai vu ensuite que le partage que j'ai monté a pour file system "smbfs" et que ce dernier n'accepte pas des copie de fichiers de plus de 2Go. Donc lorsqu'il veut copier le premier fichier dépassant cette taille ça bloque...

    Alors j'ai également vu qu'on pouvait monter le partage en "cifs" pour outrepasser cette limite mais mon linux est trop vieux, et ne le supporte pas, c'est donc impossible...

    Avez-vous des idées ?
    Merci d'avance.

  2. #2
    Expert confirmé Avatar de disedorgue
    Homme Profil pro
    Ingénieur intégration
    Inscrit en
    Décembre 2012
    Messages
    4 352
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2012
    Messages : 4 352
    Par défaut
    Bonjour,

    Peux-tu regarder tes limites user ?
    pour les voir toutes ou pour celle qui nous interresse ici.

    Cordialement.

  3. #3
    Membre expérimenté
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Juin 2011
    Messages
    223
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Landes (Aquitaine)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2011
    Messages : 223
    Par défaut
    salut,

    alors un ulimit -f me donne unlimited...

    Mais j'ai un peu plus regardé toutes les options avec ulimit -a, et j'ai vu qu'il existe un "core file size" visible avec ulimit -c.
    Et la j'ai 1000000 de blocks... quand je fais la copie j'ai "file size exceeded (core dumped)"... ça correspond ?

    En revanche même en passant le 'core file size' en unlimited toujours la même erreur... pffff... je comprends pas mais à priori ce serait une limitation de smbfs...

  4. #4
    Modérateur
    Avatar de jlliagre
    Homme Profil pro
    Ingénieur support avancé & développement
    Inscrit en
    Juin 2007
    Messages
    2 695
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur support avancé & développement
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2007
    Messages : 2 695
    Par défaut
    Citation Envoyé par ludo40190 Voir le message
    je comprends pas mais à priori ce serait une limitation de smbfs...
    Oui, c'est bien une limitation connue. Le pilote smbfs utilise un offset sur 32 bits pour l'accès aux données d'un fichier. La taille maximale d'un fichier est donc de 2^31 -1 = 2147483647 octets.

    Comme tu l'a déjà écrit, la solution est de passer par le driver cifs qui n'a pas cette limitation.

    Sinon, tu peux toujours découper tes fichiers en tranches de 1 Go puisqu'il s'agit de backups.

    ex:
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    split -b 1G grosFichier grosFichier.
    Ça va créer grosFichier.aa grosFichier.bb etc ... que tu pourras copier sous smbfs.

  5. #5
    Expert confirmé Avatar de disedorgue
    Homme Profil pro
    Ingénieur intégration
    Inscrit en
    Décembre 2012
    Messages
    4 352
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur intégration
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Décembre 2012
    Messages : 4 352
    Par défaut
    Je me trompe peut-être, mais un offset 32 bits c'est 2^32 -1=4294967295 octets.
    D'ailleurs, un octet c'est du 8 bits et 2^8 -1=255.

    Après, je ne remets pas en cause la taille max géré par le pilote du smbfs (pour tout dire, je n'en sais rien mais j'aurais tendance à te croire car cette limite était omniprésente pour pas mal de système de fichiers).

    D'ailleurs, quel est le format du système de fichiers du nas ?

    Cordialement.

  6. #6
    Membre expérimenté
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Juin 2011
    Messages
    223
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Landes (Aquitaine)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2011
    Messages : 223
    Par défaut
    Le NAS est formaté en "NTFS"...

    Après oui je pourrai spliter mes fichiers qui ont une taille supérieur à 2Go, mais je n'aime pas trop cette solution de contournement qui je suppose augmentera sensiblement le temps de mes sauvegardes...

    Alors je me demande, pour pouvoir utilisé du cifs, que dois-je faire, intégrer cifs au kernel ? upgrader samba ? est-ce facile ?

    Ou avez-vous d'autres idées moins contraignantes... ?

  7. #7
    Modérateur
    Avatar de jlliagre
    Homme Profil pro
    Ingénieur support avancé & développement
    Inscrit en
    Juin 2007
    Messages
    2 695
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur support avancé & développement
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2007
    Messages : 2 695
    Par défaut
    Citation Envoyé par disedorgue Voir le message
    Je me trompe peut-être, mais un offset 32 bits c'est 2^32 -1=4294967295 octets.
    Non, tu ne te trompes pas bien sûr. Le problème est que dans le pilote, l'offset est signé, ce qui fait perdre un bit.

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. [AJAX] Taille limite sur XML ?
    Par agequodagis dans le forum AJAX
    Réponses: 1
    Dernier message: 18/01/2010, 17h23
  2. Taille limite de copie de fichiers
    Par ricperso dans le forum Réseau
    Réponses: 2
    Dernier message: 22/08/2006, 11h54
  3. [String] Taille limite ?
    Par Clorish dans le forum Langage
    Réponses: 2
    Dernier message: 13/07/2005, 11h50
  4. Taille de fentre sur un lien
    Par fantomchris dans le forum Balisage (X)HTML et validation W3C
    Réponses: 2
    Dernier message: 17/06/2005, 15h24
  5. taille limite d'une priority_queue
    Par traiangueul dans le forum SL & STL
    Réponses: 3
    Dernier message: 26/08/2004, 17h19

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo