IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Administration PostgreSQL Discussion :

optimisation de l'opération pg_dump


Sujet :

Administration PostgreSQL

  1. #1
    Membre régulier
    Homme Profil pro
    test
    Inscrit en
    Mai 2016
    Messages
    343
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : Algérie

    Informations professionnelles :
    Activité : test
    Secteur : Boutique - Magasin

    Informations forums :
    Inscription : Mai 2016
    Messages : 343
    Points : 121
    Points
    121
    Par défaut optimisation de l'opération pg_dump
    bonjour a tous ,

    j'aimerai procéder a une opération d’optimisation du procédure du backup pg_dump

    j'ai trouver l'option du parallélisme par exemple, --jobs=4

    ce qui permet de réduit la durée de la sauvegarde

    Qui a une retour d'experience sur cette option (charge du serveur , verrou , look , optimisation ) ?

    comment je peut mesurer la valeur de ce paramètre ?

    cordialement

  2. #2
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    21 761
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 21 761
    Points : 52 547
    Points
    52 547
    Billets dans le blog
    5
    Par défaut
    L'option de parallélisation d'une sauvegarde n'a d'intérêt pour réduire le temps d'exécution de la sauvegarde que si :
    1) le stockage de la base est répartit sur différents disques physiques indépendant et de grande vitesse, soit par un agrégat RAID 0, 0+1 ou 10 ou bien par la disposition des tables sur différents espace de stockage (tablespace) chacun résident sur un disque physiques différent et indépendant.
    2) la destination de la sauvegarde est envoyée sur un espace de stockage avec un agrégat RAID 0, 0+1 ou 10 comportant de nombreux disques en parallèle.

    Cela dit, PostGreSQL n'est pas conçu pour supporter de très grandes volumétries de bases... Il faut le limiter à quelques centaines de Go...

    Les grands SGBDR (Oracle, SQL Server...) ayant des techniques particulières pour accélérer les sauvegardes sur de fortes volumétries (sauvegarde incrémentales, partielles, multi destinations, compressées....)

    A +
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  3. #3
    Membre expérimenté

    Homme Profil pro
    Auditeur informatique
    Inscrit en
    Novembre 2014
    Messages
    815
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : Tunisie

    Informations professionnelles :
    Activité : Auditeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2014
    Messages : 815
    Points : 1 350
    Points
    1 350
    Billets dans le blog
    2
    Par défaut
    Citation Envoyé par SQLpro Voir le message
    Cela dit, PostGreSQL n'est pas conçu pour supporter de très grandes volumétries de bases... Il faut le limiter à quelques centaines de Go...

    Les grands SGBDR (Oracle, SQL Server...) ayant des techniques particulières pour accélérer les sauvegardes sur de fortes volumétries (sauvegarde incrémentales, partielles, multi destinations, compressées....)

    A +

    j'utilise Barman pour mes sauvegardes et il gère bien le sauvegarde incrémentale et la compression

Discussions similaires

  1. [9.5] Optimisation d'une commande pg_dump
    Par NULL008 dans le forum Administration
    Réponses: 9
    Dernier message: 06/07/2018, 13h55
  2. Réponses: 15
    Dernier message: 12/10/2012, 08h06
  3. Réponses: 1
    Dernier message: 16/11/2011, 15h17
  4. Optimisation des opérations sur les grands nombres, algorithme de Knuth
    Par Jackyzgood dans le forum Algorithmes et structures de données
    Réponses: 8
    Dernier message: 21/10/2010, 20h27
  5. Réponses: 6
    Dernier message: 28/07/2005, 21h14

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo