IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Algorithmes et structures de données Discussion :

IBM dévoile son nouveau langage de programmation Corelet


Sujet :

Algorithmes et structures de données

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Mars 2013
    Messages
    426
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Enseignement

    Informations forums :
    Inscription : Mars 2013
    Messages : 426
    Points : 32 561
    Points
    32 561
    Par défaut IBM dévoile son nouveau langage de programmation Corelet
    IBM dévoile son nouveau langage de programmation Corelet
    pour faire fonctionner les applications comme le cerveau humain sur ses puces cognitives

    IBM décide de quitter les sentiers battus empruntés en informatique en réalisant la simulation d'un nouveau type de puce qui n'est pas basée sur le modèle traditionnel de Von Neumann, dont s'inspirent largement les architectures d'ordinateurs actuelles.

    Ladite puce calque son architecture et son fonctionnement sur celui du cerveau humain. Cette dernière sera donc compacte, moins gourmande en énergie et excellera dans les domaines ou un cerveau humain est compétent comme la reconnaissance faciale ou vocale.

    Elle est composée de plusieurs unités « neurosynaptiques » (à ne surtout pas confondre avec l'équivalent biologique) regroupées en cœur, dont l'assemblage rappelle fortement l'agencement des neurones dans le cerveau humain.

    Pour le Docteur Dharmendra S. Moda chercheur chez IBM, cette nouvelle architecture impose une nouvelle façon de programmer : « Architecture et programmation sont intimement liées. Par conséquent, avec notre nouvelle architecture, un nouveau paradigme de programmation doit être défini ». Fini les programmes constitués de suite d'instruction que doit exécuter un processeur.

    Par la suite, le Docteur Dharmendra et son équipe ont développé un ensemble d'outils pour créer, déboguer et tester les applications conçues pour cette architecture inédite. C'est ainsi qu'un nouveau langage de programmation orienté objet baptisé Corelet a vu le jour. Pour simplifier le développement des applications pour la nouvelle architecture, des bibliothèques réutilisables ont été mises au point pour ce langage de programmation. Ces dernières regroupent en catégories les fonctionnalités offertes par les unités neurosynaptiques de la puce. C'est ainsi qu'on a des bibliothèques spécialisées dans les tâches de détection des contours, identification des couleurs, perception sonore, que le programmeur peut agencer pour créer des applications complexes.

    [ame="http://www.youtube.com/watch?v=J69EJxUr8mw"]IBM[/ame]

    Sources: IBM, Article IBM sur le langage Corelet

    Et vous ?

    La nouvelle architecture d'IBM représenterait-elle le futur ?

  2. #2
    Membre régulier
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Janvier 2012
    Messages
    27
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Finance

    Informations forums :
    Inscription : Janvier 2012
    Messages : 27
    Points : 89
    Points
    89
    Par défaut
    La nouvelle architecture d'IBM représenterait-elle le futur ?
    LE futur, non, mais il est fort probable qu'elle fasse partie du futur.

    Le modèle de Von Neumann restera la pièce maîtresse de l'informatique, mais il sera renforcé par des unités de calcul basé sur de nouveaux paradigmes.
    En vrac : quantique, biologique, neurosynaptique...

    De toute façon, on en verra pas la couleur avant 20 ans, comme le reste

    Maintenant que l'informatique classique est arrivée à maturité, les efforts vont pouvoir se reporter sur le développement de technologie alternatives. Technologies alternatives dont la plus part des bases ont été posées depuis longtemps, mais qui nécessitait des outils (technologiques, scientifiques) qui n'existaient pas à l'époque.

    On continue d'avancer, c'est bon signe !

  3. #3
    Futur Membre du Club
    Profil pro
    Inscrit en
    Février 2008
    Messages
    7
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2008
    Messages : 7
    Points : 7
    Points
    7
    Par défaut
    LE futur, non, mais il est fort probable qu'elle fasse partie du futur.
    De toute façon, on en verra pas la couleur avant 20 ans, comme le reste
    Tout comme les composants en partie organique qui pourraient eux aussi se développer dans les années à venir même si cela prendra probablement encore plus de temps.

  4. #4
    Membre éprouvé

    Homme Profil pro
    Chef de projet MOA
    Inscrit en
    Janvier 2006
    Messages
    621
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet MOA

    Informations forums :
    Inscription : Janvier 2006
    Messages : 621
    Points : 1 264
    Points
    1 264
    Par défaut
    Rhââââââ enfin un sujet pour les visionnaires ! Cool !

    @bonnotguillaume : pas sur que le modèle de Von Neuman reste la pierre angulaire de l'informatique, ou plutot de l'ordinateur. L'évolution a été telle ces 50 dernières années que je n'arrive même pas à savoir ce que ça va donner dans 10 ans.

    Dans certains cas, le omdèle de VN montre ses limites, le dépasser permettrait peut être de faire tomber certaines barrières (genre les 7 problèmes pathématiques du concours machin...).

    Par contre, pour moi, les évolutions des technologies (mémoires biologiques, ordinateurs quantiques...) ne sont qu'une étape de plus mais on reste toujours dans la même façon de penser. C'est juste que la puissance augmente, mais la "techno" ne bouge pas.
    "L'incohérence de ceux qui dirigent et l'incompétence de ceux qui critiquent sont un vibrant hommage à ceux qui exécutent."
    Général George S. PATTON. Messine 1943.

  5. #5
    Nouveau Candidat au Club
    Homme Profil pro
    Inscrit en
    Février 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Février 2013
    Messages : 1
    Points : 1
    Points
    1
    Par défaut rapidité d'exécution
    Je pense que l'imitation du cerveau a deux aspects positifs

    1) En fait je pense que le problème majeur des ordinateurs actuels est la difficulté à augmenter efficacité: les lois de physique freinent l'augmentation leur fréquence. La solution est d'effectuer du travail en parallèle. Le problème pour les ordinateurs travaillant en parallèle est d'avoir des programmes pouvant exploiter les taches en parallèle. Ou plus exactement d'organiser le travail en parallèle pour TOUS les programme. Le mode de fonctionnement du cerveau est quand à lui massivement parallèle. En fonctionnant de la sorte pour augmenter l'efficacité du cerveau une approche qui donne souvent de bon résultats (mais qui n'est pas la seule à mon avis) est d'augmenter sa taille. Ces considérations font qu'imiter le cerveau est une voie certaine (le cerveau humain existe et fonctionne) pour obtenir des ordinateurs ou l'on pourra augmenter l'efficacité.

    2) dans le développement des applications l'interface homme machine sera plus "humaine" si elle fonctionne de la même manière que celle d'un humain. Je pense effectivement que certaines personnes critiqueront le fait que le distributeur automatique de billet soit redevenu un humain avec tous ses vices et vertus, mais nous pourrons y gagner sur le fait que nous pourrions avoir des réponses non programmées. Comme par exemple si je suis un collectionneur de billet et de pièces je pourrais lui demander si il possèdes des exemplaires qui m'intéressent.

    Je pense que les ordinateurs futurs contiendront un mélange de processeurs traditionnels et imitant le cerveau

  6. #6
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Il ne faut pas mélanger structure et fonctionnalités : ce n'est pas parce qu'une puce est organisée comme un cerveau que tu retrouves les même fonctionnalités. Encore faut-il que ce soit utilisé de la même manière, et niveau compréhension de l'utilisation du cerveau il y a encore bien plus d'ignorance. De plus, il y a des tas de choses (comme les sentiments) dont on a une idée de ce qui est influencé (quelles zones du cerveau et avec quel signal chimique ou électrique), mais on n'a aucune idée du pourquoi (quel est le processus complet qui a amené à cette réaction).

    C'est comme le génome : on a beau savoir ce qui est écrit, si on ne comprends pas les interactions des différents éléments on ne peut pas expliquer comment on crée un être vivant à partir de ce génome.

    Une difficulté de taille avec la parallélisation est la logique entre taches parallèles : pour pouvoir faire 2 choses en même temps, il ne faut pas que l'un ait besoin que l'autre soit fini pour s'exécuter. Par exemple, si je distribue (1+3)*(2-4) je peux faire en parallèle les deux parenthèses mais le produit au centre devra attendre le résultat des deux avant de pouvoir faire son calcul (je simplifie, on peut faire des calculs à l'avance et choisir le bon quand on a les résultats, mais les inconvénients sont différents). Si on est capable de voir pourquoi ce calcul se découpe de la sorte, c'est parce qu'on connait la sémantique à placer derrière (les parenthèses sont prioritaires). Pour des tâches complexes, de la même manière, il faut être capable d'identifier quelles opérations dépendent du résultat d'autres opérations, et ça ça demande une très grosse réflexion pour paralléliser soit-même la chose.

    Je ne doute pas que le futur passe par la parallélisation (en fait on y est déjà), mais de là à dire que le programmeur va faire des applications en utilisant lui-même cette possibilité, j'y crois pas un instant. De la même manière que de l'assembleur on est arrivé à des langages de haut niveau qui nous permettent d'abstraire l'architecture de VN, on aura droit à des langages de programmation bas niveau sur ces architectures "brain-like" pour avoir ensuite des langages plus haut niveau qui arriveront au même genre de fonctionnalités qu'on a aujourd'hui.

    À part les pionnier du domaine qui programmeront avec l'assembleur de ces architectures, on cherchera très rapidement à avoir quelque chose de plus facile à utiliser. On a déjà fait le chemin avec VN, on le fera encore plus vite avec cette architecture là. On ne comprends pas déjà comment le cerveau fonctionne, alors comment le programmeur arriverait à comprendre comment son programme peut s'appliquer à un cerveau électronique ?

    Par contre, arpenter ce chemin d'abstraction sur ces architectures devrait pouvoir aider à comprendre un peu mieux comme fonctionne le cerveau, en voyant ce qui est faisable (et comment) et ce qui ne l'est pas.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 67
    Dernier message: 18/02/2015, 08h35
  2. IBM dévoile son nouveau mainframe z13
    Par Amine Horseman dans le forum Big Data
    Réponses: 6
    Dernier message: 23/01/2015, 22h53
  3. IBM dévoile son nouveau "Design Langage"
    Par Amine Horseman dans le forum Actualités
    Réponses: 2
    Dernier message: 22/12/2014, 15h43
  4. M# : Microsoft dévoile son nouveau langage open source dérivé de C#
    Par Hinault Romaric dans le forum Actualités
    Réponses: 35
    Dernier message: 17/01/2014, 23h25
  5. Nouveau langage de programmation : le langage G
    Par G-FACTION dans le forum Autres langages
    Réponses: 10
    Dernier message: 19/07/2009, 19h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo