Vous n'êtes pas identifié(e).
Pages : 1
Super clair.
Merci à tous, je cours faire des backups !
Juste pour enfoncer le clou.
Donc pg_dump se base en gros sur un numéro de transaction en début d'exécution et s'y tient pour la lecture et donc la sauvegarde des lignes.
Ceci implique qu' il vaut mieux utiliser ces outils plutôt qu'une succession de select basiques redirigés dans un fichier texte (ou programme maison) qui ne tiendraient pas compte de cette information cruciale.
Merci Guillaume.
Que font ces utilitaires pour assurer cette cohérence, notamment lors de backup de gros volumes.
Je m'explique par exemple avec 2 tables de données, T1 table de métadonnées, T2 table de données, très volumineuse et qui possède une contrainte étrangère sur T1.
Je lance pg_dump, qui commence par sauvegarder T2.
Presque en fin de backup de T2, une ligne de T1 référencée par des données de T2 est supprimée.
Que se passe-t-il au niveau du fichier résultat et de la cohérence des données ?
Postgres assure-t-il la cohérence en bloquant temporairement les transactions ?
Merci
Bonjour,
je débute sous Postgres et je me pose des questions sur le backup de bases de prod.
J'ai noté que Postgres propose 2 utilitaires pour réaliser des sauvegardes : pg_dump et pg_dumpall
Existe-t-il un moyen de réaliser avec ces outils des backups cohérents sans interrompre les alimentations ?
Merci.
Pages : 1