Vous n'êtes pas identifié(e).
Pages : 1
Bonjour,
la commande pg_dump garantie un fichier backup consistent, mais y'a t'il moyen d'enchainer plusieurs commandes pg_dump dans un script dans une sorte de transaction commune pour avoir plusieurs fichiers de backup consistents entre eux ?
J'ai des tables partitionnées volumineuses, et j'utilise un script pour backupé toute la base sauf les tables partitionnées puis je backupe partition par partition si la partition a été modifiée car la plupart des partitions ne sont pas modifiées entre 2 backups. Et c'est trop long de tout backupé en une seule fois...
Merci
Hors ligne
Salut,
Si t'as la version 9.4 et supérieur je crois, tu peux utiliser l'option jobs "-j" du commande pg_dump pour augmenter la vitesse de ton dump avec un format de sortie repertoire.
Jobs:
Exécute une sauvegarde parallélisée en sauvegardant njobs tables simultanément. Cette option réduit la durée de la sauvegarde mais elle augmente aussi la charge sur le serveur de base de données. Vous ne pouvez utiliser cette option qu'avec le format de sortie répertoire car c'est le seul format où plusieurs processus peuvent écrire leur données en même temps.
Pour plus d'info: https://docs.postgresql.fr/9.6/app-pgdump.html
Hors ligne
C'est possible, mais c'est assez compliqué. Il faut créer un snapshot avec pg_create_snapshot() et l'utiliser avec l'option --snapshot de pg_dump.
Guillaume.
Hors ligne
Pages : 1