IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

R Discussion :

Retour d'expérience bigmemory


Sujet :

R

  1. #1
    Rédacteur

    Homme Profil pro
    SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Inscrit en
    Avril 2009
    Messages
    2 497
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Secteur : Conseil

    Informations forums :
    Inscription : Avril 2009
    Messages : 2 497
    Points : 6 064
    Points
    6 064
    Par défaut Retour d'expérience bigmemory
    Bonjour,
    Quelqu'un pourrait faire un retour d'expérience sur l'utilisation des packages permettant de gérer les très grandes volumétries ?

    Merci à tous.
    N'oubliez pas de cliquer sur lorsque votre problème est réglé !

  2. #2
    Membre éprouvé

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Points : 1 189
    Points
    1 189
    Billets dans le blog
    2
    Par défaut
    Bonjour Datametic,

    Concernant R et les grosses volumétries, voilà les réflexions que nous avons partagées dans mon entreprise.

    Comme tu dois le savoir R met tout en cash dans la mémoire et fait les traitements après à la différence de SAS dont tu sembles être un expert.

    Les solutions envisagées pour résoudre ces problèmes ont été les suivantes.

    1) Du point de vue logiciel:

    mmap: Pour ma part ne répond pas assez bien à ma problématique en raison d'un volume trop grand de données à gérer.

    Hadoop: Pas essayer, mais très en vogue.

    2) Les solutions de réduction des données.

    C'est essentiellement vers ses solutions que nous avons pu traiter de gros volumes de données en segmentant et agrégeant les données trop volumineuses.

    Voilà mon expérience en la matière,
    Le seul conseil que je puisse te donner est de ne pas négliger la seconde solution qui semble sans intérêt mais qui en fin de compte est souvent la plus facile et la meilleure à mettre en œuvre.
    Cordialement.

  3. #3
    Rédacteur

    Homme Profil pro
    SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Inscrit en
    Avril 2009
    Messages
    2 497
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Secteur : Conseil

    Informations forums :
    Inscription : Avril 2009
    Messages : 2 497
    Points : 6 064
    Points
    6 064
    Par défaut
    Merci pour ton retour !

    J'ai découvert le package BigMemory. Le connais-tu ? Il semble travailler sur le sujet du cash qui, effectivement, me tracasse. Je dois travailler sur des micro-données. SAS ne charge pas les données en mémoire sauf à lui dire et je ne me vois pas découper mes tables car les analyses en panel par exemple exigent toute la base pour mesurer les intéractions. J'ai d'ailleurs le même soucis avec STATA mais c'est une autre histoire.

    La question que je me pose également est l'utilisation de R dans Hadoop. Il semble qu'il soit utilisé, ce qui signifierait que les données sont montées en mémoire ? Sauf si ce package http://cran.r-project.org/web/packag...ory/index.html l'évite.
    Voir la note http://www.r-bloggers.com/michael-kane-on-bigmemory/

    As-tu une opinion ?
    N'oubliez pas de cliquer sur lorsque votre problème est réglé !

  4. #4
    Membre éprouvé

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Points : 1 189
    Points
    1 189
    Billets dans le blog
    2
    Par défaut
    Je ne connais pas le package bigmemory et je ne suis pas en mesure de répondre à tes questions. Pour moi le sujet des big data qui est lié au big memory est un sujet qui reste ouvert. Je suis aussi preneur de tout retour d'expérience du fait que j'y suis aussi confronté dans le data mining et les statistiques de masse.

    Je peux juste t'indiquer que si tu veux faire des régressions pour l'analyse des panels tu as biglm qui a été conçu pour le génome. Concernant Hadoop et le retour d'expérience que j'en ai eu, c'est que c'est un vrai travail de mise en place.


    Cordialement.

  5. #5
    Membre confirmé
    Homme Profil pro
    MCU
    Inscrit en
    Juillet 2010
    Messages
    185
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : MCU
    Secteur : Santé

    Informations forums :
    Inscription : Juillet 2010
    Messages : 185
    Points : 486
    Points
    486
    Par défaut
    Bonjour,

    Là où je travaille actuellement, nous gérons de grand volumes de données mais les analyses que nous réalisons ne nécessitent pas la base entière. Du coup, la base, qui est un énorme fichier texte, est simplement divisée en fichiers plus petits gérables par R (au format .txt, .RData ou .rds). Ensuite, nous utilisons soit le package parallel pour lancer les analyses sur plusieurs processeurs, soit via un système de soumission de jobs (torque) sur un cluster.

    http://cran.cict.fr/web/views/HighPe...Computing.html
    http://bioconductor.org/help/course-...rogramming.pdf

    HTH

    Vincent

  6. #6
    Rédacteur

    Homme Profil pro
    SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Inscrit en
    Avril 2009
    Messages
    2 497
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : SAS ALLIANCE SILVER. Consultant et formateur SAS et Cognos.
    Secteur : Conseil

    Informations forums :
    Inscription : Avril 2009
    Messages : 2 497
    Points : 6 064
    Points
    6 064
    Par défaut
    OK.

    rien à voir mais pourquoi un fichier texte pour la base et non pas une base de données (SQL, ORACLE ...) ?
    N'oubliez pas de cliquer sur lorsque votre problème est réglé !

  7. #7
    Membre confirmé
    Homme Profil pro
    MCU
    Inscrit en
    Juillet 2010
    Messages
    185
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : MCU
    Secteur : Santé

    Informations forums :
    Inscription : Juillet 2010
    Messages : 185
    Points : 486
    Points
    486
    Par défaut
    Bonjour,

    Nous avons des bases postgresql mais nous n'avons pas le temps de tout passer en base de données relationnelle. De plus, pour certaines données, nous allons plus vite avec des scripts perl qu'avec des requêtes SQL.

    Vincent

Discussions similaires

  1. Communiquez vos retours d'expérience sur Delphi .NET
    Par Laurent Dardenne dans le forum Delphi .NET
    Réponses: 11
    Dernier message: 12/08/2008, 15h46
  2. [SGBD][ECO II]Retour d'expérience ECO II
    Par Morvan Mikael dans le forum Delphi .NET
    Réponses: 8
    Dernier message: 16/01/2006, 18h18
  3. [WebObject] Retour d'expérience ?
    Par oursblanc dans le forum Autres
    Réponses: 1
    Dernier message: 16/12/2005, 15h03
  4. recherche retour d'expérience chef de projet
    Par eXiaNazaire dans le forum Emploi
    Réponses: 8
    Dernier message: 08/03/2005, 11h10
  5. Retour d'expérience ?
    Par jIdJo dans le forum Maven
    Réponses: 1
    Dernier message: 05/11/2003, 08h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo