IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

MATLAB Discussion :

Utilisation d'un GPU pour le DeepLearning avec un layer LSTM


Sujet :

MATLAB

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre habitué
    Homme Profil pro
    Étudiant
    Inscrit en
    Septembre 2017
    Messages
    9
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Septembre 2017
    Messages : 9
    Par défaut Utilisation d'un GPU pour le DeepLearning avec un layer LSTM
    Bonjour,
    Je voudrais savoir comment faire pour utiliser toute la puissance d'une carte graphique (une geforce 1060) à son plein potentiel pour le deep learning?
    J'ai lancer une séquence d'entrainement mais quand je regarde le pourcentage de ressources utilisée de ma carte graphique, il y a marqué que 0.3% ...
    Comment faire pour utiliser le plein potentiel de ma carte?
    Je viens de faire une photo pour expliquer le problème, on y voit que seulement deux nodes sont utilisés et que seulement 3% des ressources gpu aussi.
    Nom : gpuLstm.png
Affichages : 200
Taille : 1,72 Mo

  2. #2
    Membre émérite

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Billets dans le blog
    2
    Par défaut
    Bonjour,

    Je n'ai jamais utilisé de GPU avec Matlab, mais avec Python avec Keras ou Pytroch. Dans ce cas, il est nécessaire d'installer CUDA de NVIDIA, dans le cas où ta carte est bien une NVIDIA. Dans le cas contraire, ce qui est plus risqué, il faut regarder si ton logiciel supporte ta carte graphique et comment elle est prise en charge.

    Bien cordialement,

Discussions similaires

  1. Réponses: 0
    Dernier message: 12/09/2009, 16h27
  2. Utiliser une image pour un événement avec swing/awt
    Par Tavarez59 dans le forum AWT/Swing
    Réponses: 1
    Dernier message: 23/03/2007, 09h39
  3. Utiliser une applet signée pour acceder au disque avec javascipt
    Par foued_scorpion dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 13/11/2006, 09h56
  4. Réponses: 5
    Dernier message: 26/05/2005, 15h40

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo