IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Algorithmes et structures de données Discussion :

L'ordinateur de demain apprendra de ses erreurs


Sujet :

Algorithmes et structures de données

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 437
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 437
    Points : 197 446
    Points
    197 446
    Par défaut L'ordinateur de demain apprendra de ses erreurs
    L'ordinateur de demain apprendra de ses erreurs,
    des chercheurs présentent une nouvelle génération de puces « intelligentes »

    Larry Smarr, astrophysicien qui dirige l'institut californien des technologies des télécommunications et de l'information, voudrait révolutionner le monde de la technologie avec une nouvelle génération de puces. Leur fonctionnement est en grande partie calqué sur celui du système nerveux biologique, en particulier la façon dont les neurones réagissent aux stimuli et s'interconnectent pour interpréter l'information.

    Avec cette nouvelle approche, les chercheurs espèrent qu'à l'instar de l'homme les ordinateurs soient capables d'apprendre de leurs erreurs. « Nous passons de la conception de systèmes informatiques à quelque chose qui a beaucoup à voir avec de l’informatique biologique » a expliqué Smarr dans une interview accordée au NYT.

    Jusqu'à présent, le CPU de l'ordinateur a été conçu pour un traitement en binaire de l'information. Les nouveaux processeurs, qui restent des puces en silicium, sont connectés entre eux afin de se comporter comme des synapses. Ils sont appelés processeurs neuromorphiques parce qu'ils forment des groupes de « neurones ». « Les connexions entre ces puces sont « sous-pesées » en fonction des corrélations de données que les processeurs ont déjà « appris ». » affirme Smarr. Par la suite, ces éléments sont modifiés en flux de données dans la puce. Un signal sera alors généré et va se propager à d'autres composants et, en réaction, changer en conséquence la programmation des prochaines actions. Ce qui revient à dire que cette évolution programme les prochaines actions du « cerveau informatique » comme les « informations modifient les actions et pensées humaines ».

    Ces nouvelles puces pourraient ainsi tolérer une erreur de programmation, humaine ou matérielle, et ainsi éviter les contrariétés dues à l'usage intensif de l'informatique comme les plantages. Les premiers processeurs, capables d'apprendre des erreurs, seront commercialisés au courant de l'année 2014. Précisons néanmoins que leurs capacités resteront limitées et ils consommeront beaucoup d'énergie.

    Dans les prochaines années, cette approche devrait aboutir à la création d’une nouvelle génération d’intelligence artificielle qui devrait effectuer des tâches que l'homme fait en général de manière aisée comme voir, parler, écouter, se déplacer, manipuler et contrôler des objets. De telles avancées pourraient profondément changer la reconnaissance vocale ou faciale.

    Mais les américains ne sont pas les seuls. Une équipe de chercheurs du Tokyo's Institute of Industrial Science travaille elle aussi au développement d'un concept appelé neuro-computer ; un ordinateur basé sur le fonctionnement des cellules du cerveau humain. L'objectif de l'équipe est de créer des fonctions semblables à celles du cerveau en connectant plusieurs circuits électriques pour former un réseau de neurones.

    La puce électronique développée mesure 2cm carré. Dans son cœur, un circuit intégré spécialement conçu par l'équipe, composé de transistors, de capacités et de circuits analogiques. Contrairement aux circuits digitaux qui traitent les signaux électriques comme des états 0 ou 1, les circuits analogiques les traitent en continu en fonction de leur puissance. L'amplitude du signal de sortie de la puce électronique peut varier en fonction de l'entrée. Ces circuits permettent ainsi un traitement du signal se rapprochant de celui effectué par les neurones dans notre cerveau.

    Pour le professeur Takashi Kohno, qui dirige l'équipe, si leurs travaux aboutissent comme ils l'espèrent, cela permettra d'avancer sur la compréhension des mécanismes du cerveau et, ainsi, comprendre les émotions et pouvoir traiter les maladies comme la dépression.

    Source : NYT

    Et vous ?

    Qu'en pensez-vous ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre averti
    Avatar de Dumbeldor
    Homme Profil pro
    Développeur Concepteur Banque postale / Ecole d'ingénieur Alternance
    Inscrit en
    Novembre 2013
    Messages
    88
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Landes (Aquitaine)

    Informations professionnelles :
    Activité : Développeur Concepteur Banque postale / Ecole d'ingénieur Alternance

    Informations forums :
    Inscription : Novembre 2013
    Messages : 88
    Points : 301
    Points
    301
    Par défaut
    C'est incroyable !
    Mais perso sa me fait un peu peur !
    Une peur vieille de l'humanité, la peur que la technologie prennent le dessu fasse au homme.

    Car si nous créons des machines capable d'avoir une intelligence artificiel et donc potentiellement d'avoir une "conscience" elle est donc capable de faire des choses qui ne sont pas "prévu". Mais bon sa c'est un fantasme vu et revu dans beaucoup de film.
    N'oubliez pas de mettre un petit pouce vert si mon message vous a aidé !

  3. #3
    Membre confirmé

    Homme Profil pro
    Mâle reproducteur chez Amazon
    Inscrit en
    Mars 2006
    Messages
    207
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Mâle reproducteur chez Amazon

    Informations forums :
    Inscription : Mars 2006
    Messages : 207
    Points : 490
    Points
    490
    Par défaut
    J'ai des fichiers très détaillés sur Larry Smarr.
    Pour vivre heureux, vivons cachés. Proverbe alien.

  4. #4
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 065
    Points : 2 567
    Points
    2 567
    Par défaut
    Vous imaginez un ordinateur dépressif. lol
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  5. #5
    Membre chevronné Avatar de nirgal76
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Septembre 2007
    Messages
    904
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Septembre 2007
    Messages : 904
    Points : 2 123
    Points
    2 123
    Par défaut
    Calquer sur le cerveau humain...mince, il va refuser de bosser plus de 35H, va réclamer des congés, une prime dès qu'il se met à bosser (le salaire, c'est juste pour être présent quoi...) et va manifester dans la rue parcequ'il sera pas content (mais sans vraiment savoir pourquoi la plupart du temps).
    Apprendre de ses erreurs, suis pas sur que le cerveau humain soit le meilleur à copier là aussi quand on regarde l'histoire.
    Bref, je ne sais pas si c'est une bonne idée...

  6. #6
    Membre expérimenté Avatar de Uranne-jimmy
    Homme Profil pro
    Bioinformatique
    Inscrit en
    Décembre 2012
    Messages
    778
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Bioinformatique
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Décembre 2012
    Messages : 778
    Points : 1 461
    Points
    1 461
    Par défaut
    Citation Envoyé par nirgal76 Voir le message
    Calquer sur le cerveau humain...mince, il va refuser de bosser plus de 35H, va réclamer des congés, une prime dès qu'il se met à bosser (le salaire, c'est juste pour être présent quoi...) et va manifester dans la rue parcequ'il sera pas content (mais sans vraiment savoir pourquoi la plupart du temps).
    Non ça c'est juste nous, les français.
    C'est incroyable en effet, je vois plus l'avancé du système du point de vu biologique, on est en train de créer les premiers modèles qui permettront les études in silico, adieu les comité d'éthique. Bon on en est encore loin, mais la chose avance, à grand pas comme toujours.
    Expert en recherche google caféinomane

  7. #7
    Membre confirmé Avatar de Tackedowno-sama
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Novembre 2013
    Messages
    294
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2013
    Messages : 294
    Points : 519
    Points
    519
    Par défaut
    Il suffit de regarder H2G2 ou Futurama pour comprendre ce que donnerait un ordinateur dépressif.

    Blague à part, la réalité se rapprochant de nouveau de la fiction, cela soulève des questions déjà posées par le cinéma, dans mon cas ces avancées technologiques m'impressionne et me rends impatient.

    La seconde révolution informatique et robotique approche plus rapidement que prévu.

    J'ai hâte de pouvoir débattre avec mon ordinateur.
    N'hésitez pas à cliquer sur , si j'ai pu vous être utile.

  8. #8
    Membre averti

    Homme Profil pro
    Développeur Web
    Inscrit en
    Février 2013
    Messages
    88
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Février 2013
    Messages : 88
    Points : 447
    Points
    447
    Billets dans le blog
    1
    Par défaut
    Utiliser les réseaux de neurones au niveau d'un processeur ? C'est intéressant tout ça .

    Bon, après il faut aussi lui apprendre comment voir, ce qu'il doit interpréter (il faut pouvoir donner les premières pondérations), tout en restant dans la limitation du système neuronal mis à disposition par le processeur.

  9. #9
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2011
    Messages
    240
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2011
    Messages : 240
    Points : 636
    Points
    636
    Par défaut
    Avant de pouvoir apprendre de ses erreurs, il faut comprendre ce qu'est une erreur.
    Pour comprendre ce qu'est une erreur, il faut savoir se définir un but.
    Comment définit on le but d'un ordinateur ? En le programmant si possible pour qu'il accomplir sa tache de manière efficiente c'est à dire sans erreurs.

    Après un ordinateur peut être programmé au niveau logiciel ou au niveau matériel.

  10. #10
    Membre expérimenté Avatar de Uranne-jimmy
    Homme Profil pro
    Bioinformatique
    Inscrit en
    Décembre 2012
    Messages
    778
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Bioinformatique
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Décembre 2012
    Messages : 778
    Points : 1 461
    Points
    1 461
    Par défaut
    Pour cette question, je vois plus une question d'adaptation. Dire "apprendre de ces erreurs", c'est plus un raccourci qui convient au titre d'un article. Je vois assez bien un ordinateur capable de comprendre qu'au bout de 5 ou 6 fois ou j'orthographie à ma façon un mot, ce soit un mot que je souhaite, sans que je lui demande. Un ordinateur qui quand je demande d'ouvrir de façon répété répertoire sur répertoire finisse par comprendre que quand je demande le dossier musique, je veux celui du DD secondaire. Un pc qui comprend aussi quand il y a un crash pourquoi il a eu lieu, et se modifie en fonction, mais là c'est soit de la science fiction, soit une connexion permanente à un système de gestion externe, je vois mal comment on peut faire autrement.

    Pour ce qui est d'un réseau synaptique comme modèle, il permet si c'est bien fait de modifier non pas le code mais le chemin de circulation des données, favoriser certains, créer des systèmes portes (équivalent de rajouter une porte logique NON qui agit uniquement sur événement ?). Je vois tout de même plus une avancé dans la recherche biologique et sur la mémoire vive et brute, qui, part un modèle copiant le cerveau, devrait être super efficace.
    Expert en recherche google caféinomane

  11. #11
    Membre actif Avatar de AdHoc
    Profil pro
    Inscrit en
    Mai 2003
    Messages
    245
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 245
    Points : 239
    Points
    239
    Par défaut
    Combien de temps de tels ordinateurs vont mettre à identifier et à éliminer la source principale des dysfonctionnements et des problèmes?

  12. #12
    Futur Membre du Club
    Inscrit en
    Décembre 2010
    Messages
    4
    Détails du profil
    Informations forums :
    Inscription : Décembre 2010
    Messages : 4
    Points : 8
    Points
    8
    Par défaut
    S'il s'agit de la mise en œuvre de réseaux neuronaux sur du silicium ou autre, en en parle depuis déjà une dizaine d'années et plus dans le domaine de l'intelligence artificielle, de l'apprentissage etc...

  13. #13
    Membre actif
    Profil pro
    Problem Solver
    Inscrit en
    Juin 2013
    Messages
    138
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Problem Solver

    Informations forums :
    Inscription : Juin 2013
    Messages : 138
    Points : 231
    Points
    231
    Par défaut
    Les réseaux de neurones, ça n'est pas franchement nouveau.
    Pourtant, est-ce qu'on en a déjà partout autour de nous ?
    Très peu, donc je ne pense pas que c'est la puce qui va changer le monde.

    Par contre, depuis quelques années, on a deux ou trois applications très intéressantes, je pense à l'entrée utilisateur dans les smartphones : clavier avec système prédictif, et reconnaissance vocale, qui en plus apprennent avec l'usage.

    Bref, si d'autres usages du style entrent dans les usages et peuvent bénéficier d'une telle puce, avec plaisir, on en profitera plus facilement

  14. #14
    Membre habitué
    Profil pro
    Enculeur de mouches
    Inscrit en
    Septembre 2003
    Messages
    133
    Détails du profil
    Informations personnelles :
    Localisation : France, Creuse (Limousin)

    Informations professionnelles :
    Activité : Enculeur de mouches

    Informations forums :
    Inscription : Septembre 2003
    Messages : 133
    Points : 161
    Points
    161
    Par défaut
    Faut pas s'enflammer... On fait tout ça depuis des (dizaines) d'années dans les labos de recherche informatique... Mais de manière logicielle.
    Je parle pas des réseaux de neurones classiques comme ceux sur lesquels sont basé le "bien connu" perceptrons, mais des neurones impulsionnels (spiking neurons) qui simule plus précisément les processus biologiques : renforcement ou affaiblissement de la connectivité des synapses virtuelles en fonction du timing des impulsions par rapport à l'activité du neurone post synaptique.
    Voir "l'algorithme" Spike Timing Dependent Plasticity pour plus d'infos.

    C'est souvent très dur de mettre en place une structure qui fait effectivement quelque chose, il suffit pas de juxtaposer des neurones pour qu'en émerge une intelligence supérieure...

    Là ils s'agit "juste" de puces qui offre une "accélération matérielle" à des applications déjà connu, car la simulation de tel réseaux sur des processeurs "classiques" relativement séquentiels, là où les réseaux neuronaux sont MASSIVEMENT parrallèles, prend soit un temps très long, soit consomme énormément de ressource.

    Ca ouvre la porte à des application temps réél sur des modèles qui sont déjà validés, comme effectivement la vision robotique, etc... Basés sur les réseaux neuronaux, au lieu des autres algos classiquement utilisés pour ce type d'application.

    Bon je simplifie un peu, mais quand je lis les fantasmes irréalistes des commentaires antérieurs, c'est une envie irrépressible
    Gaïa n'est pas une marchandise.

  15. #15
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Dumbeldor Voir le message
    C'est incroyable !
    Mais perso sa me fait un peu peur !
    Une peur vieille de l'humanité, la peur que la technologie prennent le dessu fasse au homme.

    Car si nous créons des machines capable d'avoir une intelligence artificiel et donc potentiellement d'avoir une "conscience" elle est donc capable de faire des choses qui ne sont pas "prévu". Mais bon sa c'est un fantasme vu et revu dans beaucoup de film.
    Lol, t'as pas besoin de cette peur pour qu'un PC fasse des choses imprévues : les bugs, on en a depuis toujours, et non seulement ce sont des imprévus, mais des imprévus néfastes (on pourrait avoir de bonnes surprises aussi {^_^}).

    Quand à ce qu'un système artificiel prenne le dessus sur l'homme... pareil. Si on fait des systèmes artificiels, c'est pour nous aider là où on n'est pas bon. Donc il suffit de choisir la bonne perspective et tu peux toujours dire qu'une machine est supérieure à l'homme. Maintenant, on ne peut pas être bon partout, ou "There is no free lunch", comme on dit.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 44
    Dernier message: 29/07/2015, 16h45
  2. Comment voir ses erreurs
    Par pmithrandir dans le forum Android
    Réponses: 6
    Dernier message: 21/06/2011, 09h31
  3. Comment reperer ses erreurs ?
    Par Invité dans le forum Débuter
    Réponses: 2
    Dernier message: 25/04/2010, 13h16
  4. Trouver ses Erreurs en RCP
    Par djos06 dans le forum Eclipse Platform
    Réponses: 3
    Dernier message: 04/12/2007, 11h00
  5. [Conception] Détecter ses erreurs
    Par bigltnt dans le forum PHP & Base de données
    Réponses: 2
    Dernier message: 16/04/2007, 15h15

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo