Vous n'êtes pas identifié(e).
Bonjour
Je souhaite savoir si il y' a moyen (et comment si il existe) d'optimiser un export de base posgresql d'une taille de 100Go qui mets 2h10 pour une sauvegarde complète
Je suis en Postgresql 12.15
L'export se fait via une tâche planifiée et lance la commande suivante :
pg_dump.exe --host localhost --port 5432 --username "postgres" --role "postgres" --compress=4 --no-password --format=c --no-tablespaces --file "C:\sauve\produit.pgdmp" "produit"
Le vacuum est à on
Le share_buffrerd à 4048Mo
Merci pou vos lumières!
Hors ligne
Vous pouvez essayer l'option -j de pg_dump, pour paralléliser le dump (plusieurs tables en parallèle). Vous n'aurez de gros gains avec cette méthode que si vous quelque chose de parallélisable évidemment, donc pas une grosse table unique dans la base.
Dernière modification par Marc Cousin (09/08/2023 11:29:41)
Marc.
Hors ligne
Bonjour
Merci pour ce retour rapide, je vais essayer de suite!
Hors ligne
Bonjour
j'ai un message d'erreur m'indiquant "
"pg_dump: erreur : la sauvegarde parallélisée n'est supportée qu'avec le format directory"
Que dois-je rajouter d'aute en paramétre dans ma commande d'export?
Merci pour vos retours
Hors ligne
Le format directory. Vous pouvez consulter https://docs.postgresql.fr/15/app-pgdump.html pour plus de détails.
Julien.
https://rjuju.github.io/
Hors ligne
je vais regarder cela
Merci
Hors ligne
Désolé mais pouvez-vous me donner un exemple décriture dela commande
j'essaye ;
pg_dump.exe -U monuser -j 4 -C -F c -f c:\t\NomBase.dump cmabase et çà ne marche pas
pg_dump -j 4 -F d -f c:\temp\saugegarde.pgdump monshema idem
Hors ligne
c'est bon c'est trouvé, il fallait que je me place bien sous le bien pour lancer la commande
Hors ligne