Vous n'êtes pas identifié(e).
Pages : 1
bonjour,
merci pour votre réponse
cordialement
bonjour ,
la question est dans le titre peut- on installer plusieurs version de postgres sur un même poste ,si oui à quoi faut-il faire attention (je pense par ex changer le port)
je suis sur windows 7 j'ai une 9.4
merci
PS: je voulais faire une recherche par mot clé dans le forum mais je ne vois pas comment faire...
bonjour et merci,
j'ai lu la doc un peu trop rapidement
bonne journée
bonjour,
lors d'une sauvegarde d'une table ayant un trigger avant insertion, lorsque que je regarde les commandes sql générées par le dump , il n'y a pas la création de la fonction utilisée par le trigger.
ce qui pose problème lors de la restauration .
il existe une commande pour désactiver le trigger, mais je dois recréer manuellement la fonction après la restauration . existe -t-il un option pour sauvegarder cette fonction?
je vous mets la commande du dump (générée avec pgadmin)
pg_dump.exe --host localhost --port 5434 --username "postgres" --no-password --format tar --verbose --file "D:\xavier\essai.tar" --table "public.essai" "essai2010f"
je suis sur windows, postgres 9.1
bonne journée
ok merci et bonne journée
bonjour,
découvrant postigs 2 et en particulier l'utilisation des rasters j'ai déjà un premier problème pour exporter un raster sous format image
j'ai créé une table et inséré un raster avec la commande:
raster2pgsql.exe -s 2154 -I -d SC25_TOPO_1150_6160_L93.tif public.raster1 >raster1.sql
rasters=# \i d:/essai/raster1.sql
je réalise ensuite la requête suivante pour ma sortie image png
rasters=# \copy (select st_aspng(rast) from raster1) to d:/essai/raster1.png with binary;
j'obtiens une image en fond noir et tracé en blanc (même resultat quand je visualise sous qgis)
comment avoir une image en couleur?
je précise que je suis sous windows xp postgresql 9.1
bonne journée
PS :question posée aussi sur forumsig
ok merci je vais regarder ça de plus pres
bonjour,
j'ai les résultats d'une enquête dans une quarantaine de tables, donc je n'aurais pas d'insert et d'update. les requêtes habituelles ne se font que sur 4 à 5 tables jointes au maximum
j'aurais 3 questions:
- pour chaque table je voudrais faire un cluster sur l'index de la colonne servant aux jointures: est ce une bonne idée?
-vu qu'il n' y a aucun insert ou update ,est ce q'un nombre important d'index (en plus de ceux cités plus haut) aura une incidence négative?
- j'ai des tables de plus de 150 colonnes, serait il intéressant de les "découper" en table de 50 colonnes par exemple tout en sachant qu'a priori le nombre de jointure pour une requête habituelles n'augmentera pas énormément?
j'espère que c'est clair!
bonne journée
bonjour,
je vais effectivement abandonnner cette "solution".
mais j'ai encore une question: en quoi l'utilisation du contrib hstore est plus interessant?
merci et bonne journée
bonsoir,
j'ai fait un cluster de ma table " 3 colonnes" (on me l' a suggéré) et là ma requête s'est fait en 1seconde
je vous envoie comme demandé les explain (analyze on, buffers on)
sur ma table "3 colonnes"
"Aggregate (cost=248748.18..248748.19 rows=1 width=2) (actual time=2616.215..2616.217 rows=1 loops=1)"
" Buffers: shared hit=4705"
" -> Bitmap Heap Scan on t_donnees_fr1 (cost=9729.42..244852.77 rows=519388 width=2) (actual time=85.904..1155.135 rows=516170 loops=1)"
" Recheck Cond: (varcod = 76)"
" Buffers: shared hit=4705"
" -> Bitmap Index Scan on varcod_t_donnees_fr1_idx (cost=0.00..9599.57 rows=519388 width=0) (actual time=85.000..85.000 rows=516170 loops=1)"
" Index Cond: (varcod = 76)"
" Buffers: shared hit=1416"
"Total runtime: 2616.393 ms"
sur ma table 150 colonnes
"Aggregate (cost=25457.01..25457.02 rows=1 width=8) (actual time=2941.360..2941.362 rows=1 loops=1)"
" Buffers: shared hit=18970"
" -> Seq Scan on exploitations (cost=0.00..24159.61 rows=518961 width=8) (actual time=0.013..1123.156 rows=518961 loops=1)"
" Buffers: shared hit=18970"
"Total runtime: 2941.518 ms"
bonsoir
bonsoir rjuju,
voici l'explain analyze
"Aggregate (cost=249076.18..249076.19 rows=1 width=2) (actual time=123309.785..123309.788 rows=1 loops=1)"
" -> Bitmap Heap Scan on t_donnees_fr1 (cost=9729.42..245180.77 rows=519388 width=2) (actual time=1449.767..120127.916 rows=516170 loops=1)"
" Recheck Cond: (varcod = 76)"
" -> Bitmap Index Scan on varcod_t_donnees_fr1_idx (cost=0.00..9599.57 rows=519388 width=0) (actual time=1257.186..1257.186 rows=516170 loops=1)"
" Index Cond: (varcod = 76)"
"Total runtime: 123364.180 ms"
ma version est la 9.1 je suis sur windows xp
shared_buffer= 1GB
work_mem=64MB
ce qui est étonnant c'est que pour une même config on a d'un coté 3s et de l'autre 120 s.
re bonsoir
bonsoir, voici l'explain
"Aggregate (cost=249305.10..249305.11 rows=1 width=2)"
" -> Bitmap Heap Scan on t_donnees_fr1 (cost=9839.48..245365.11 rows=525331 width=2)"
" Recheck Cond: (varcod = 76)"
" -> Bitmap Index Scan on varcod_t_donnees_fr1_idx (cost=0.00..9708.14 rows=525331 width=0)"
" Index Cond: (varcod = 76)"
pour info la table : t_donnees_fr1 (ident varchar,varcod=int ,valeur varchar)
l'index:varcod_t_donnees_fr1_idx
CREATE INDEX varcod_t_donnees_fr1_idx
ON t_donnees_fr1
USING btree
(varcod );
bonjour,
j'ai une table "table_1" de plus de 500.000 enregistrements et 150 champs (dont ident qui est la pk)
j'ai transformé la table_1 en une table "table_2" comportant 3 colonnes
ident,nom_champs,valeur:
ident est l'ident de la table_1
nom_champs est l'un des 150 champs de la table table_1
valeur est la valeur d'un champs donné pour un ident donné
par ex dans la table_1
ident champs1 champs2 .... champs150
id01 val1_1 val1_2 .... val1_150
id02 val2_1 ......
dans la table table_2 on aura
ident nom_champs valeur
id01 champs1 val1_1
id01 champs2 val1_2
...
id01 champs150 val1_150
id02 champs1 val2_1
...
j'ai rajouté sur table_2 2 index l'un sur ident l'autre sur nom_champs
je réalise la requête sur la table_1 de la forme:
SELECT sum(champsn) FROM table_1;
la requête s’exécute en 3 sec
sur la table_2 j’exécute la requête équivalente qui me donnera le même résultat
SELECT sum(valeur) FROM table_2 WHERE nom_champs='champsn'
la requete s'execute en 120sec
je pensais q'un sgbd était optimisé pour des tables avec peu de colonnes même avec beaucoup d'enregistrements
pourquoi observe t'on tant de différence?
logiquement avec le plugin postgis shapefile qui est intégré dans les dernières version de pgadmin
bonsoir une ecriture un peu plus concise et pratique
count(ouv1.idcat)::numeric(5,2) <==> cast(count(ouv1.idcat) as numeric(5,2))
la division entre 2 entiers sous postgres est tronqué donc 67/147 donne 0
par contre select cast (67./147. as numeric(5,5) ) renvoie bien le resultat attendu
bonjour, hormis qu'il manque une virgule sur la 2ieme ligne apres "100", il ne faut pas de ligne vide dans le fichier à importer
"04001" ,"Aiglun", "100" ,"AlpesSud" ,"101", "Digne-les-bains"
"04004" ,"Allemagne-en-Provence" ,"100" ,"AlpesSud" ,"102", "Manosque"
"04005", "Allons" ,"100","AlpesSud" ,"101", "Digne-les-bains"
"04006","Allos" ,"100", "AlpesSud" ,"101", "Digne-les-bains"
"04007","Angles" ,"100","AlpesSud", "101", "Digne-les-bains"
"04008" ,"Annot","100", "AlpesSud" ,"101", "Digne-les-bains"
de plus si tu remplis toutes les colonnes de la table tu peux simplifier l'ecriture
copy importer from...
bonjour,sur l'ancien site se trouvaient des tutos ou articles en particulier un sur les parametres in out inout et un autre plus recent sur les types composé
Pages : 1