Vous n'êtes pas identifié(e).
Pages : 1
bonjour à la communauté PostgreSQL,
je cherche de l'information relative à l'utilisation de PostgreSQL dans un cadre de Datawarehouse pour des volumes tournant autour des 20 To de data devant répondre à des uses cases à la fois de mining et Dashboard prédéfini.
Je n'ai pas d'expérience sur ce sgbd, mes points de références tournent autour d'Appliance telle que Teradata, Exadata ou de sgbd "classique" tel qu'oracle ou sqlserver.
De ce que j'ai pu trouvé j'ai quelques inquiétudes entre autre sur la gestion du partitionnement et de la parallélisation.
De même qu'apporte de plus PostgresPlus et PostgresAdvancedServer, à part l'aspect support.
Tous les conseils ou retour d'expérience me serait bien utile
bien à vous,
Hors ligne
Il existe à ma connaissance très peu d'instances de PostgreSQL avec des volumétries de ce type (20 To). Par contre, j'en connais beaucoup entre 1 et 5 To. Mais bon, en soit, ça ne veut pas dire grand chose. Vous pouvez très bien utiliser avec bonheur une instance de 20 To avec PostgreSQL. Tout dépend de l'utilisation qui en est faite.
Pour savoir ce qu'apporte de plus PPAS (PostgresPlusAdvancedServer), le mieux est certainement de vous tourner vers leur service commercial. Tout ce que j'en sais, c'est que cela apporte une couche de compatibilité avec Oracle, ainsi que quelques fonctionnalités supplémentaires (qui sont ensuite parfois reversées dans le code de PostgreSQL). Cela apporte aussi une facturation au CPU, une gestion des licences, etc. Si vous partez d'Oracle à cause de ça, ce serait un peu dommage de s'y recoller directement.
Guillaume.
Hors ligne
merci pour ce retour
Hors ligne
Il existe à ma connaissance très peu d'instances de PostgreSQL avec des volumétries de ce type (20 To).
Aux pgdays il y a quelques années à Lyon, il y avait eu une présentation d'une équipe qui gérait la cartographie des Pays-Bas ; laquelle était refaite à coups de LIDAR.
C'était 6 To PAR DataSet
Hors ligne
Pages : 1