IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Import/Export Oracle Discussion :

Export/import migré de Sun à Linux


Sujet :

Import/Export Oracle

  1. #1
    Membre habitué
    Inscrit en
    Septembre 2004
    Messages
    378
    Détails du profil
    Informations forums :
    Inscription : Septembre 2004
    Messages : 378
    Points : 130
    Points
    130
    Par défaut Export/import migré de Sun à Linux
    Bonjour,

    J'ai un traitement d'export/import entre 2 schémas de 2 instances différentes.
    L'export se fait avec EXPDP sur quelques tables en utilisant QUERY.
    L'import se fait avec IMPDP en utilisant CONTENT=DATA_ONLY et TABLES=...

    Le traitement marchait parfaitement sous Sun 5.10
    On vient de migrer sous Linux et depuis l'import ne marche plus avec l'option TABLES

    Ce que je trouve surprenant c'est que le retour de l'import est :
    Connected to: Oracle Database 10g Enterprise Edition Release 10.2.0.5.0 - 64bit Production
    With the Partitioning, Oracle Label Security, Data Mining and Real Application Testing options
    ORA-31655: no data or metadata objects selected for job
    Master table "ORC"."SYS_IMPORT_TABLE_01" successfully loaded/unloaded
    Starting "ORC"."SYS_IMPORT_TABLE_01": orc/********@dodpvodp DUMPFILE=exp_ipe_his.dump TABLES=AUDIT_TRAIL,CASE_DATA,CASE_INFORMATION REMAP_SCHEMA=ipe:orc LOGFILE=imp_ipe_his.log CONTENT=DATA_ONLY DIRECTORY=ORC_EXTRACTDIR
    Job "ORC"."SYS_IMPORT_TABLE_01" successfully completed at 15:50:52
    Et donc Oracle m'indique que l'import est bien terminé. Mais il n'a bien sur rien chargé.

    Sous Linux pour que ca marche, il a fallu enlever l'option TABLES

    Est-ce que quelqu'un pourrait m'expliquer ?
    Merci de vos éclaircissements.

    La version d'Oracle est 10.2.0.5.

  2. #2
    Membre confirmé
    Femme Profil pro
    Administrateur de base de données
    Inscrit en
    Novembre 2007
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Novembre 2007
    Messages : 419
    Points : 616
    Points
    616
    Par défaut
    bonjour,

    je crois qu'avec la clause CONTENT=DATA_ONLY, oracle va charger juste les lignes dans les tables mais celles-ci doivent pré exister dans le schema orc, sans quoi il ne peut rien charger.

  3. #3
    Membre habitué
    Inscrit en
    Septembre 2004
    Messages
    378
    Détails du profil
    Informations forums :
    Inscription : Septembre 2004
    Messages : 378
    Points : 130
    Points
    130
    Par défaut
    Les tables sont présentes dans les 2 schémas et strictement identiques.

  4. #4
    Membre confirmé
    Femme Profil pro
    Administrateur de base de données
    Inscrit en
    Novembre 2007
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Novembre 2007
    Messages : 419
    Points : 616
    Points
    616
    Par défaut
    alors peut-être que tu n'as rien dans ton dump concernant les tables que tu veux charger, d'où l'ora-31655

  5. #5
    Membre habitué
    Inscrit en
    Septembre 2004
    Messages
    378
    Détails du profil
    Informations forums :
    Inscription : Septembre 2004
    Messages : 378
    Points : 130
    Points
    130
    Par défaut
    Si le dump contient bien les données exportées.
    D'ailleurs ce même dump fonctionne très bien sous Sun avec l'option qui pose problème sous Linux.

  6. #6
    Membre confirmé
    Femme Profil pro
    Administrateur de base de données
    Inscrit en
    Novembre 2007
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Novembre 2007
    Messages : 419
    Points : 616
    Points
    616
    Par défaut
    j'aimerais bien comprendre aussi.
    ton export, c'est sur la même version oracle?
    peux-tu poster ta commande expdp avec la query et éventuellement ton parfile (et le contenu de la log) ? puis la commande d'import.
    peux-tu réessayer l'import en préfixant chaque nom de table avec le user source parce qu'il me semble que si on ne le fait pas, c'est le current user qui prime dans un import niveau table. et là, oracle ne trouverait pas de tables appartenant à ORC dans le dump, ce qui expliquerait l'erreur rencontrée.
    et si après ce test tu obtiens l'erreur ORA-31631, c'est peut-être que le privilege IMP_FULL_DATABASE manque à ton user ORC sous linux

  7. #7
    Membre habitué
    Inscrit en
    Septembre 2004
    Messages
    378
    Détails du profil
    Informations forums :
    Inscription : Septembre 2004
    Messages : 378
    Points : 130
    Points
    130
    Par défaut
    Bon je vais essayer d'être très clair

    On est en train de migrer de Sun vers Linux, donc je dispose pour l'instant des 2 environnements en parallèle.
    C'est lors des tests de migration que j'ai constaté que le traitement d'import ne marchait plus avec l'option "TABLES=".
    Comme j'ai les 2 environnements sous la main, j'ai testé les import sur chaque environnement avec le même fichier dump et les mêmes options.
    Et c'est comme ça que j'ai constaté le problème.

    La version d'Oracle est la même, la 10.2.

    La commande de l'export :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    tables=ipe.case_information,ipe.case_data,ipe.audit_trail
    query=
    ipe.case_information:"where casenum in (select c.casenum
    from case_information c
    where c.is_dead    = 1
    and   c.is_subcase = 0
    and exists ( select 1
                 from audit_trail atr
                 where atr.audit_date < to_date('20100101','YYYYMMDD')
                 and c.casenum = atr.casenum
                 and atr.TYPE_ID in (7,8,9)
               )
    )
    "
    ,
    ipe.case_data:"where casenum in (select c.casenum
    from case_information c
    where c.is_dead    = 1
    and   c.is_subcase = 0
    and exists ( select 1
                 from audit_trail atr
                 where atr.audit_date < to_date('20100101','YYYYMMDD')
                 and c.casenum = atr.casenum
                 and atr.TYPE_ID in (7,8,9)
               )
    )
    "
    ,
    ipe.audit_trail:"where casenum in (
    select c1.casenum
    from case_information c1, case_information c2
    where c1.casedesc = c2.casedesc
    and   c2.is_dead    = 1
    and   c2.is_subcase = 0
    and exists ( select 1
                   from audit_trail atr
                   where atr.audit_date < to_date('20100101','YYYYMMDD')
                   and c2.casenum = atr.casenum
                   and atr.TYPE_ID in (7,8,9)
               )
    )
    "
    Logs de l'export :
    Connected to: Oracle Database 10g Enterprise Edition Release 10.2.0.4.0 - 64bit Production
    With the Partitioning, Oracle Label Security, OLAP, Data Mining
    and Real Application Testing options
    Starting "IPE"."SYS_EXPORT_TABLE_01": ipe/********@dodpvtib PARFILE=/applis/odpv/tmp/histo_ipe/export_from_ipe_20100101.par DUMPFILE=ipe_his_20100101.dump LOGFILE=export_from_ipe_20100101.log directory=IPE_EXTRACT
    Estimate in progress using BLOCKS method...
    Processing object type TABLE_EXPORT/TABLE/TABLE_DATA
    Total estimation using BLOCKS method: 516 MB
    Processing object type TABLE_EXPORT/TABLE/TABLE
    Processing object type TABLE_EXPORT/TABLE/GRANT/OWNER_GRANT/OBJECT_GRANT
    Processing object type TABLE_EXPORT/TABLE/INDEX/INDEX
    Processing object type TABLE_EXPORT/TABLE/CONSTRAINT/CONSTRAINT
    Processing object type TABLE_EXPORT/TABLE/INDEX/STATISTICS/INDEX_STATISTICS
    Processing object type TABLE_EXPORT/TABLE/CONSTRAINT/REF_CONSTRAINT
    Processing object type TABLE_EXPORT/TABLE/INDEX/FUNCTIONAL_AND_BITMAP/INDEX
    Processing object type TABLE_EXPORT/TABLE/INDEX/STATISTICS/FUNCTIONAL_AND_BITMAP/INDEX_STATISTICS
    Processing object type TABLE_EXPORT/TABLE/STATISTICS/TABLE_STATISTICS
    . . exported "IPE"."CASE_DATA" 6.601 KB 0 rows
    . . exported "IPE"."AUDIT_TRAIL" 8.320 KB 0 rows
    . . exported "IPE"."CASE_INFORMATION" 10.07 KB 0 rows
    Master table "IPE"."SYS_EXPORT_TABLE_01" successfully loaded/unloaded
    ******************************************************************************
    Dump file set for IPE.SYS_EXPORT_TABLE_01 is:
    /applis/odpv/tmp/ipe_his_20100101.dump
    Job "IPE"."SYS_EXPORT_TABLE_01" successfully completed at 09:19:50
    Je n'ai pas préfixé les tables par le nom du schéma proprio mais j'utilise l'option REMAP_SCHEMA

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    DUMPFILE=ipe_his_20090630.dump TABLES=AUDIT_TRAIL,CASE_DATA,CASE_INFORMATION REMAP_SCHEMA=ipe:hip LOGFILE=import_into_histo_ipe_20090630.log CONTENT=DATA_ONLY DIRECTORY=ORC_EXTRACTDIR
    Et donc, ce processus fonctionne très bien sur Sun mais pas sur Linux.
    Pour que ca marche, il faut enlever l'option "TABLES=" (que j'ai mis en rouge)

  8. #8
    Membre confirmé
    Femme Profil pro
    Administrateur de base de données
    Inscrit en
    Novembre 2007
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Novembre 2007
    Messages : 419
    Points : 616
    Points
    616
    Par défaut
    ben zero rows exportées, ça fait zero rows importées

  9. #9
    Membre habitué
    Inscrit en
    Septembre 2004
    Messages
    378
    Détails du profil
    Informations forums :
    Inscription : Septembre 2004
    Messages : 378
    Points : 130
    Points
    130
    Par défaut
    Oui cet extrait des logs n'est pas significatif.
    Je devais partir en réunion quand j'ai commencé à faire la réponse. Donc j'ai pris la 1ère log que je trouvais.

    Mais je confirme qu'avec un même export contenant des milliers de lignes, ca n'importe rien du tout dans Linux alors que je retrouve ces milliers de lignes sous Sun.

Discussions similaires

  1. [INFO GENERAL] Export/Import
    Par ElDadou38 dans le forum Oracle
    Réponses: 4
    Dernier message: 19/08/2005, 11h35
  2. Comment exporter / importer une table postgres
    Par Elois dans le forum PostgreSQL
    Réponses: 2
    Dernier message: 01/03/2005, 19h22
  3. [Export-import] Comment faire ?
    Par phil_ma dans le forum Eclipse Java
    Réponses: 4
    Dernier message: 06/02/2005, 19h15
  4. Export / Imports de Bases
    Par Guizz dans le forum MS SQL Server
    Réponses: 2
    Dernier message: 21/07/2003, 15h18
  5. Export/import des logins et pwd
    Par Colargole dans le forum MS SQL Server
    Réponses: 14
    Dernier message: 17/07/2003, 17h07

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo