Vous n'êtes pas identifié(e).
Pages : 1
Bonjour à tous,
Dans le cadre d'un test, j'aimerais savoir si quelqu'un disposerez d'une BDD avec des données cohérentes de taille importante (tables avec 1000 ou même 10000)
Merci d'avance,
Hors ligne
Je n'ai pas de base de ce genre, mais tu peux facilement générer des données pour peupler une table avec generate_series :
Exemple pour générer 250 000 lignes:
insert into matable (id, name) select generate_series(1,250000) as truc, 'toto' || generate_series(1,250000) as machin;
test=# select * from matable;
id | data | name
--------+------+-----------
1 | | toto1
2 | | toto2
3 | | toto3
4 | | toto4
5 | | toto5
6 | | toto6
7 | | toto7
(7 rows)
Pratique, non?
Ce que j'ai fait ensuite pour ma base de test, c'est écrire quelques procédures stockées pour peupler mes autres tables (il fallait dans mon cas que ce soit cohérent aussi fonctionnellement pour qu'on puisse utiliser l'application d'une manière réaliste). J'ai donc utilisé un mélange de valeurs "en dur", et de fonctions random() dans des boucles.
Hors ligne
Il existe quelques bases disponibles sur pgfoundry :
http://pgfoundry.org/projects/dbsamples
pagila est la base généralement utilisée car elle est souvent mise à jour pour utiliser les dernières fonctionnalités de PostgreSQL (FTS par exemple).
Guillaume.
Hors ligne
Merci pour vos réponses,
Je vais essayer d'abord avec PAGILA !!!
@+
Hors ligne
Pages : 1