Discussion :
Pour l'instant ces IA sont encore lentes.
Voici une IA nommée David Fort de poker menteur, pas utile donc :
http://gulliver.eu.org/ml-archives/j...5/threads.html
En IA comme dans beaucoup de domaine les principes anciens donnent l'impression d'être du dernier cri quand une application les rend spectaculairement efficaces. C'est le cas de l'apprentissage par succès/échec qui est déjà connu depuis que l'on fait de la reconnaissance de caractères (par exemple) avec les avatars neuronaux. Le principe est simple : on présente des formes diverses à un réseau de neurones placés derrière un capteur optique et chaque fois qu'il identifie correctement un chiffre on valide la réponse sinon on l'invalide. Les neurones du réseau voient leurs fonctions de transferts (qui donnent un état de sortie pour tout état d'entrée) modifiées à chaque résultat et au bout d'un nombre raisonnable d'essais le circuit identifie les chiffres sans se tromper ou très peu.
La différence entre ce système d'apprentissage et l'être humain c'est que ce dernier est aussi doté d'une faculté de représentation mentale lui permettant de construire des théories sur les expériences vécues. Quand on "comprend comment" fonctionne un moteur thermique par exemple son dépannage relève autant du succès/échec que de la capacité à inférer les causes possibles d'une défaillance.
Mais l'IA a déjà inventé toutes sortes de représentations mentales, leur inconvénient est qu'elles ne sont pas généralistes comme chez l'homme...pour le moment.
Oui enfin jusqu'à il y a peu il fallait des milliers d'essais pour en arriver là. Ici il en faut trois et le processus d'assimilation est devenu beaucoup plus proche du nôtre. C'est ça l'avancée accomplie ces dernières années et elle est radicale, et à l'origine du nouvel engouement pour l'IA causé par ces percées algorithmiques.
Premièrement merci pour ce poncif nauséabond consistant à nous présenter les chercheurs en général et les mathématiciens en particulier comme des êtres sans cœur. Bel exemple d'émotion que ce mépris que tu affiches. Apparemment c'est ce que tu entends par intelligence émotionnelle, un comble et un terme que tu galvaudes de surcroît.
Ensuite à voir les conflits d'égo et autres dysfonctionnements académiques causés par la peur, la domination, la volonté de contrôle et autres émotions, je dirais au contraire que la science fonctionnerait bien mieux avec moins d'émotions.
Nous modélisons tout juste sous forme d'algorithme une forme d'intelligence géométrique. Nous sommes encore parfaitement incapable, d'un point de vue personnel, de définir ce que sont des sentiments comme la haine, la colère ou l'amour. Nous sommes parfaitement incapable d'expliquer nos pulsions, notre inconscient; alors de là à le modéliser... Notre forme d'intelligence utilisée dans les sciences manque terriblement d'intelligence émotionnelle et reste fonder sur des méthodologies diverses et variées limité par notre jugement et notre capacité de perception/catégorisation.
Donc oui, nous pouvons avoir peur de ce genre d'intelligence qui est modélisée de manière froide et mathématique. Un peu d'anarchisme épistémologique et de réflexion non pas sur les processus de cognition mais sur les processus émotionnels, ne ferait pas de mal à nos amis mathématiciens. Diversification des méthodes ne veut pas dire anarchisme (pour reprendre le dernier message que j'aime particulièrement) car tout se régule à terme.
Je suis moi même un anarchiste épistémologique, et je ne vois pas vraiment ce que ça vient faire ici. Mais étant un relativiste convaincu, je te laisse le bénéfice du doute en me disant que j'ai juste mal interprété tes propos. {^_^}
Par contre, désolé de te décevoir mais ça fait un moment que la science se penche sur les émotions et qu'on intègre ces connaissances à l'intelligence artificielle. On est déjà loin du stade où on tente de comprendre et modéliser ces émotions, les neurosciences affectives ayant déjà bien avancé depuis le 19e siècle. Pour la partie artificielle, je te renvois notamment à l'informatique affective. De manière basique, on exploite ces connaissances pour synthétiser l'émotion de personnages dans des jeux vidéos ou des films en image de synthèse. Mais de manière plus avancée, c'est notamment à la base de robots utilisés en clinique, comme Paro, mais aussi dans les magasins, comme Pepper.
L'IA décrite ici n'en a pas besoin, pour la simple raison qu'on cherche à lui faire accomplir une tâche de manière autonome. Or les émotions permettent de faire passer un message, c'est de l'ordre de la communication, qui n'a pas lieu d'être donc dans ce cas précis. Mais ça ne veut pas dire pour autant que ce domaine soit toujours ignoré des sciences, bien au contraire.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Les émotions si on en croit Antonio Damasio font un peu plus que de la communication. Il est assez vraisemblable que les émotions permettent de trancher lorsque le raisonnement logique hésite. Cette thèse est confortée par certains désordres cérébraux qui empêchent les émotions d'exister. les patients de ce type ont toutes les peines du monde à prendre des décisions forts simples. C'est pourquoi les neurocogniticiens pensent que l'émotion est tout simplement nécessaire à l'action chez l'homme car la plupart du temps il ne possède pas toutes les données des situations et prend quand même une décision. Sujet aussi traité par un certain Alain Berthoz.
Ca n'empêche absolument pas de faire de l'émotion de synthèse mais le doute restera longtemps sur sa capacité à mimer l'homme.
Rappelons nous cette bonne vieille règle de l'AI : un robot sera parfait le jour où en discourant avec on sera incapable de décider si "c'en est un" ou pas.
C'est vrai, je suis allé un peu vite. Ce que je voulais soulever dans mon post était (et ça reste vrai après ton intervention) que ce n'est pas ce qui nous intéresse dans l'article présenté, vu qu'on cherche à exécuter des tâches bien identifiées (on informe le robot quand un mouvement permet de mieux exécuter la tâche) mais pauvrement définies (on ne sait pas quels mouvements exacts doivent être exécutés).
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
très intéressant.
Ca me rappele ce robot (immobile sur son axe) mais doté d'un bras et d'une paire de caméras en guise d'yeux.
Au début il ne savait utiliser ni l'un ni l'autre.
A force de stimulis ( Popole qui tient une baballe et la fait bouger devant le robot), le robot apprend.
A la fin, doté d'une raquette, il fait rebondir une balle de tennis. (entre autre )
Je pense qu'il faudra une phase d'apprentissage plus global, tout comme nous étant bébé.
Propriété mécanique des différents matériaux, environnement propice au développement, à l'apprentissage, ...
le plastique, le fer, le bois, ça casse, ça plie, ça mouille. Ou pas.
ça a des poils et ca bouge tout seul
Apprentissage par imitation, également.
La gestion des erreurs et le fait de donner une "note" est une bonne idée. Finalement, c'est comme ça que la majorité d'entre nous avons appris.
Un seul peut atteindre l'excellence en cherchant le perfectionnement, et l'apprendre aux autres.
C'est marrant mais, ce système de point pour la décision de l'action la plus efficace, ça a déjà été développé dans un mmorpg : Saga of Ryzom (Ryzom, actuellement), pour l'intelligence artificielle des créatures.
Partager