Vous n'êtes pas identifié(e).
Pages : 1
En fait , j'ai une seule requête qui récupère une liste de personne à partir de plusieurs table et les insère dans une table finale.
et le mode de commit est "auto-commit"
le temps d’exécution est de deux heures comme je vous le dis précédemment.
je cherche un moyen de limiter le temps ainsi que le commit.
changer la procédure stockée pour qu'elle soit exécutée plusieurs fois ou pour que différentes procédures soient exécutées à la suite
pourriez vous me donner un exemple SVP
Merci par avance
Bonjour,
Il faut que vous changiez votre façon de procéder
Est ce que vous puvez me donner plus le détails et comment je peux changer ma façon de procéder? un exemple si possible !!!
P.S Ma transaction permet en gros d'insérer plusieurs lignes dans une table et le commit et en mode "autocommit" alors que je veux le gérer manuellement "style un commit tout les 1000 lignes par exemple"
les modifications de données ne seront pas votre seul soucis dans le cadre d'une transaction longue.
qu'est ce que je dois prendre en charge encore lors de ce type de transaction dite longue?
Merci pour votre réponse
par contre si on peut pas gérer les commit dans une fonctions peut-on le faire dans les paramètre de config de la base?
En fait,
Mon problème est: quand j'exécute une fonction d'insertion dans une base postgreSQL, le temps d'exécution est de 2 heures.
Et pendant tout ce temps ma table reste bloquée en attendant la fin de l’insertion et le commit.
existe t-il un moyen pour optimiser la fonction ou le Commit autrement?
Par avance Merci
Bonjour,
Merci tout d'abord pour ce forum;)
Est ce qu'il y a un moyen de gérer le commit dans une fonction PostgreSQL?
et y a t il un équivalent de dbms_output ?
Par avance Merci
Pages : 1