IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Import/Export Oracle Discussion :

Peut on compresser un dump sans risques ?


Sujet :

Import/Export Oracle

  1. #1
    Membre du Club
    Profil pro
    Inscrit en
    Janvier 2005
    Messages
    62
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2005
    Messages : 62
    Points : 43
    Points
    43
    Par défaut Peut on compresser un dump sans risques ?
    Bonjour,
    en plus des snapshot pris au niveau du san par mon cher administrateur je voudrais faire un dump par schema, le snapshot fait +/- 2T donc ca devient monstrueux a restaurer, par schema les plus gros font dans les 300go une fois dumpé.
    Mais évidemment ca fait qques centaines de go au total et donc je voudrais compresser mes dump, mais ils semblent avoir des contrindications au format zip, j'ai fais la recherche sur le forum et cela ne semblait (?) toucher que le zippage sous windows. En tout cas c'est difficile de se faire un avis tranché au vu des commentaires sur le net.

    mais concrètement, qui a déja eu, jamais eu de soucis lors d'une restauration d'un dump compressé? parceque j'ai un peu de mal a voir al différence entre un dump et un iso par exemple, et donc une compression qui changerait le fichier décompressé ca me parait assez dingue, mais concevable (quand on bosse en info on se fait petit a petit a presque tout).


    dans ce post ci c'est finalement le tar qui en ressort: http://www.developpez.net/forums/sho...light=dump+zip

    bref, dur dur de se faire un avis sans se casser les dents une premiere fois sur ce probleme. Précision éventuelle, je suis en 9.2.0.7 sur du redhat

    Merci de votre aide

  2. #2
    Expert éminent sénior
    Avatar de orafrance
    Profil pro
    Inscrit en
    Janvier 2004
    Messages
    15 967
    Détails du profil
    Informations personnelles :
    Âge : 46
    Localisation : France

    Informations forums :
    Inscription : Janvier 2004
    Messages : 15 967
    Points : 19 073
    Points
    19 073
    Par défaut
    il semblerait qu'une compression convenablement effectuée ne corromps pas le dump, le problème dont certains se sont fait l'echo était probablement causé par un bug de l'outil de compression.

    Donc, tu n'as rien à craindre

  3. #3
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    Pour avoir expérimenté le problème de multiples fois, les outils de compression ont souvent des tailles limites au niveau des fichiers décompressés. sous UNIX il ne faut pas hésiter à faire de la compression/décompression en mode chaîné (PIPE en ligne de commande ou fichier PIPE).

    Pour ma part j'utilise GZIP mais attention, il y a plusieurs versions et il faut bien faire gaffe à laquelle on prends. Les premières étaient limitée (Je pense 2Go par fichier).

    De plus, ne surtout pas hésiter à TESTER le fichier compressé une fois celui-ci efefctué (gzip -t, ...) afin de garantir le contenu.
    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  4. #4
    Membre du Club
    Profil pro
    Inscrit en
    Janvier 2005
    Messages
    62
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2005
    Messages : 62
    Points : 43
    Points
    43
    Par défaut
    merci des conseils, je vais essayer de faire un truc super carré.

    le gzip installé est le 1.3.3, je vais voir ce qu'il a dans le ventre.

    pas mal de refaire l'exercice de se réintéresser a ses dump, c'est fou le nombre de tables d'un ptit giga qu'on peut retrouver et qui ne servent plus a rien

  5. #5
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    c'est fou le nombre de tables d'un ptit giga qu'on peut retrouver et qui ne servent plus a rien
    Si on considère que l'importance du DBA est liée au volume d'informations brassées et stockées dans la société, on peut dire que ces petits gigas sont autant de parties de ton salaire. Les garder ça n'a jamais fait de mal à personne...
    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  6. #6
    Membre expérimenté Avatar de scheu
    Inscrit en
    Juin 2007
    Messages
    1 506
    Détails du profil
    Informations forums :
    Inscription : Juin 2007
    Messages : 1 506
    Points : 1 734
    Points
    1 734
    Par défaut
    Perso j'ai toujours utilisé gzip, chaîné avec des pipe/fifo, je n'ai jamais eu de problème
    La théorie, c'est quand on sait tout mais que rien ne fonctionne.
    La pratique, c'est quand tout fonctionne mais que personne ne sait pourquoi.
    Ici, nous avons réuni théorie et pratique : Rien ne fonctionne ... et personne ne sait pourquoi !

    Réplication de base avec Postgresql : http://scheu.developpez.com/tutoriel.../log-shipping/

  7. #7
    Membre du Club
    Profil pro
    Inscrit en
    Janvier 2005
    Messages
    62
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2005
    Messages : 62
    Points : 43
    Points
    43
    Par défaut
    je mets également en place la version avec pipe, certains d'entre vous font des dumps de plusieurs centaines de go avec cette méthode? histoire de savoir si je risque de me heurter a des problemes.

    Si on considère que l'importance du DBA est liée au volume d'informations brassées et stockées dans la société, on peut dire que ces petits gigas sont autant de parties de ton salaire. Les garder ça n'a jamais fait de mal à personne...
    Je ne suis pas dba, je fais du datawarehouse, on ne me paie que pour des données de qualiteye :/

  8. #8
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    Plus sérieusement, j'ai expérimenté la méthode avec fichier PIPE (Qui est plus rapide car évite des I/O inutiles) sur des exports de schémas de plusieurs gigas (De tête je dirais une vingtaine au maximum) sans aucun problème (Export & import).
    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  9. #9
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par scheu Voir le message
    Perso j'ai toujours utilisé gzip, chaîné avec des pipe/fifo, je n'ai jamais eu de problème
    Pareil avec des exports de 150 Go et je n'ai pas eu de problème.

  10. #10
    Membre du Club
    Profil pro
    Inscrit en
    Janvier 2005
    Messages
    62
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2005
    Messages : 62
    Points : 43
    Points
    43
    Par défaut
    pour le pipe j'utilise ceci: gzip < mon_pipe > mon_dump_zippé et par la suite je file le pipe a exp.
    je ne sais pas trop si c'est la méthode la plus optimale.

    après quelques petits dumps de 3go compressé en 200mo j'ai testé ca sur un dump estimé a 100go, au bout de 3h30 (je trouve ca extrèmement long mais je manque de repère) il m'a fait un gz de 10go.
    La machine est un sun V20Z.
    Je vais tester ce soir le même dump non compressé pour voir si j'ai un gain.

  11. #11
    Expert confirmé
    Avatar de laurentschneider
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Décembre 2005
    Messages
    2 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2005
    Messages : 2 944
    Points : 4 926
    Points
    4 926
    Par défaut
    Citation Envoyé par philcero Voir le message
    sous UNIX il ne faut pas hésiter à faire de la compression/décompression en mode chaîné (PIPE en ligne de commande ou fichier PIPE).
    ça ne marche que dans le vieil export, ne fais jamais ça avec data pump

    Avec un outil récent, oublie gzip et utilise EXPDP COMPRESSION=ALL

  12. #12
    Membre expérimenté Avatar de scheu
    Inscrit en
    Juin 2007
    Messages
    1 506
    Détails du profil
    Informations forums :
    Inscription : Juin 2007
    Messages : 1 506
    Points : 1 734
    Points
    1 734
    Par défaut
    Citation Envoyé par laurentschneider Voir le message
    ça ne marche que dans le vieil export, ne fais jamais ça avec data pump

    Avec un outil récent, oublie gzip et utilise EXPDP COMPRESSION=ALL
    D'ailleurs créer une fifo et l'utiliser pour exporter en datapump ne marche pas : on tombe sur une erreur "ORA-27038 file to create already exists" qui n'est apparemment pas contournable, d'après ce sujet
    La théorie, c'est quand on sait tout mais que rien ne fonctionne.
    La pratique, c'est quand tout fonctionne mais que personne ne sait pourquoi.
    Ici, nous avons réuni théorie et pratique : Rien ne fonctionne ... et personne ne sait pourquoi !

    Réplication de base avec Postgresql : http://scheu.developpez.com/tutoriel.../log-shipping/

  13. #13
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    Vous éloignez pas du sujet, il porte sur EXPORT et non DATA PUMP...
    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  14. #14
    Expert confirmé
    Avatar de laurentschneider
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Décembre 2005
    Messages
    2 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2005
    Messages : 2 944
    Points : 4 926
    Points
    4 926
    Par défaut
    on a bien compris, il porte sur le vieil export et non de Data Pump Export mais je pensais utile de préciser que l'approche avec mknod en fonctionne que pour le vieil export

  15. #15
    Expert éminent sénior
    Avatar de orafrance
    Profil pro
    Inscrit en
    Janvier 2004
    Messages
    15 967
    Détails du profil
    Informations personnelles :
    Âge : 46
    Localisation : France

    Informations forums :
    Inscription : Janvier 2004
    Messages : 15 967
    Points : 19 073
    Points
    19 073
    Par défaut
    en effet, la précision est très judicieuse

  16. #16
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    Vu comme ça, je suis pas contre...

    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  17. #17
    Membre du Club
    Profil pro
    Inscrit en
    Janvier 2005
    Messages
    62
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2005
    Messages : 62
    Points : 43
    Points
    43
    Par défaut
    bon, compressé ou pas la durée de l'export ne change pas trop, 3h30 pour la version compressée, 3h10 pour la non-compressée, tout cela pour un dump non-compressé de 105go, cela vous parait honorable ou juste naze? sachant que l'instance était en prod mais rien d'extrèmement lourd.

  18. #18
    Expert confirmé
    Avatar de laurentschneider
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Décembre 2005
    Messages
    2 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2005
    Messages : 2 944
    Points : 4 926
    Points
    4 926
    Par défaut
    si tu es sur UNIX, COMPRESS est beaucoup plus rapide que GZIP

  19. #19
    Membre éclairé Avatar de philcero
    Homme Profil pro
    Architecte de système d'information
    Inscrit en
    Septembre 2007
    Messages
    528
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Architecte de système d'information
    Secteur : Conseil

    Informations forums :
    Inscription : Septembre 2007
    Messages : 528
    Points : 773
    Points
    773
    Par défaut
    Dans la famille précisions : COMPRESS n'est ni plus rapide, ni plus performant que GZIP.

    J'avais fait des essais sur un AIX 4.3 et le ratio allait de 2 à 3 pour la taille suivant les fichiers (Essai réalisé avec un EXP 8.1.7 via fichier PIPE) et divisant le temps de backup par plus de deux (De tête on était passé à procédure égale de 2h0xm à 0h54m. Je me rappelle du 54m car j'avais fais nue belle présentation au client derrière pour justifier mon salaire...



    Pour info, j'utilise toujours une commande type : gzip -c5 > madb.exp.gz

    Pour être sûr, j'ai fait un petit test rapide (SOLARIS 10, fichier DBF de 100Mo).
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
     
    $ time cat /appli/oradata08/WPSOCLE/patroltemp.dbf | gzip -c5 > patroltemp.dbf.gz
     
    real    0m4.17s
    user    0m3.71s
    sys     0m0.70s
    $ time cat /appli/oradata08/WPSOCLE/patroltemp.dbf | compress -c > patroltemp.dbf.compress
     
    real    0m26.16s
    user    0m25.77s
    sys     0m0.65s
    $ ls -l patroltemp.dbf.*
    -rw-r-----   1 root     root     1323663 May 14 09:33 patroltemp.dbf.gz
    -rw-r-----   1 root     root     1640575 May 14 09:34 patroltemp.dbf.compress
    Toujours pareil...
    Philippe CEROU,

    Architecte Systèmes & Bases de données.

  20. #20
    Expert confirmé
    Avatar de laurentschneider
    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Décembre 2005
    Messages
    2 944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Administrateur de base de données
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2005
    Messages : 2 944
    Points : 4 926
    Points
    4 926
    Par défaut


    sans doute que mes tests datent aussi de aix 4.3

    en tout cas merci pour la correction!

    J'ai testé aussi, un fichier dump de 800Mb

    AIX 5.3
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    $ time gzip -5 test1.dmp 
     
    real    1m12.05s
    user    1m1.59s
    sys     0m1.95s
    $ time compress test2.dmp
     
    real    1m18.31s
    user    1m8.89s
    sys     0m2.10s
     
    $ ls -la test*
    -rw-r--r--   1 oracle   dba       228927280 May 14 09:47 test1.dmp.gz
    -rw-r--r--   1 oracle   dba       382597957 May 14 09:47 test2.dmp.Z

    Sur Solaris 10
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
     
    $ time gzip -5 test3.dmp
     
    real    1m51.43s
    user    1m24.11s
    sys     0m4.82s
    $ time compress test4.dmp
     
    real    1m47.99s
    user    1m23.40s
    sys     0m6.99s
    $ ls -la test*
    -rw-r--r--   1 oracle   dba      228927280 May 14 09:53 test3.dmp.gz
    -rw-r--r--   1 oracle   dba      382618037 May 14 09:53 test4.dmp.Z

    pas de différence significative (la différence entre Solaris et AIX n'a bien sûr pas de signification particulière, attendu que le serveur AIX est plus rapide)


Discussions similaires

  1. [AC-2007] Peut-on changer le nom d'un champ de table sans risque ?
    Par tibofo dans le forum Modélisation
    Réponses: 2
    Dernier message: 10/01/2010, 10h45
  2. lire un waveformatex qui peut etre compressé
    Par delfare dans le forum Bibliothèques
    Réponses: 2
    Dernier message: 25/01/2007, 22h11
  3. Peut-on importer des relations (sans les tables)
    Par clemasson dans le forum Access
    Réponses: 2
    Dernier message: 10/12/2006, 15h39
  4. [Loader] Comment mettre à jour sans risque
    Par cosmos38240 dans le forum Oracle
    Réponses: 4
    Dernier message: 15/11/2006, 16h23
  5. Compression des dump Oracle sous windows
    Par thomasjcj dans le forum Oracle
    Réponses: 5
    Dernier message: 28/10/2005, 14h06

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo