Bonjour,
Je poste mon message ici et pas dans le forum exp/imp car le sujet me semble plus large qu'un simple problème de datapump. (Mais je peux le déplacer bien sûr).
Notre procédure de livraison de notre schéma de base de données pour notre application est DATAPUMP.
Nous abordons maintenant sur AWS.
Je suis en train de scripter la mise à disposition d'un schéma pour un nouveau client. Ca consiste en gros à copier par datapump un schéma "vide" vers un nouveau schéma qui sera celui du client.
OR pour transférer le fichier dump en vue d'import il faut utiliser un package DBMS_FILE_TRANSFER qui adresse la base AWS via un database link.
Ca marche bien mais cela suppose de disposer d'une base de données EN LOCAL pour pouvoir utiliser ce package. C'est un peu cher pour une simple copie de fichier. (Le datapump se fait ensuite directement sur la base AWS)
Ma question est: Est-ce que quelqu'un a rencontré ce problème et comment l'a-t-il résolu ? Je vois comme solutions:
- Utiliser l'import "historique" mais cela n'est pas l'avenir.
- Faire du script SQL mais pour mon cas cela représente un coût important et un risque car il faut générer ET contrôler l'exécution de scripts de milliers d'objets et de données.
- Utiliser AWS Data Migration Service mais je ne sais pas si c'est bien conçu pour cela (de base Oracle à base Oracle).
- Trouver quelqu'un qui a une meilleures idée. C'est le but de ce message.
Si cela dit quelque chose à quelqu'un...
Pozzo
Partager