A propos de l'architecture de Neumann : UCSB physicists demonstrate ‘quantum von Neumann’ architecture http://www.kurzweilai.net/ucsb-physi...n-architecture
A propos de l'architecture de Neumann : UCSB physicists demonstrate ‘quantum von Neumann’ architecture http://www.kurzweilai.net/ucsb-physi...n-architecture
D'un autre côté, si ça donne des résultats, il va falloir plein de personnes pour expliquer au monde de la psychiatrie et de la neurologie comment elles marchent.
Après ils vont affiner leur compréhension de l'effet des médicaments et des thérapies.
Ca me semble plutôt positif.
En fait, ceux que je plaindrais le plus volontiers, ce seraient les futurs étudiants en médecine s'ils devaient goûter, en plus des joies de la médecine moderne, à celles de la géométrie hilbertienne en dimension infinie...
Quelques liens pour montrer que chacun des domaines est étudié en IA. Evidemment, beaucoup de progrès restent à faire ! Mais à ma connaissance il n'existe aucun obstacle théorique.
http://en.wikipedia.org/wiki/Natural...age_generation
http://en.wikipedia.org/wiki/Expert_system
L'aide à la décision est le premier pas, l'autonomie est en général l'objectif.
Bon, je vais finir par vous casser les pieds avec mes histoires d'analyse hilbertienne, mais en réaction aux posts de ce lien, j'ai regardé de nouveau mon cours d'analyse numérique et d'optimisation (qu'est-ce que c'est compliqué... ).
Malgré tout, je retiens une phrase qu'on trouve à l'occasion dans ces cours qui est que pour les gens de ce domaine, toutes les belles trouvailles pour résoudre des équations ou des problèmes de minimisation sur ces convexes pèchent par un constat : il est rapidement très difficile (voire inextricable) de formuler la projection d'un point sur ces ensembles convexes.
D'où une confortation de l'idée tentante que ces puces qui simulent des synapses peuvent être particulièrement efficaces, par rapport aux machines à la von Neumann dont on dispose.
Par exemple le lien :
http://www.math.u-psud.fr/~fdubois/c...greg/uzawa.pdf
parle de la difficulté à exprimer ces projections et de l'algorithme qui contourne cette difficulté. Mais, dans le cas d'un problème dont on découvre comment il se structure, la méthode du lien tombe sans doute à l'eau...
Pour conforter l'idée d'une synapse qui simulerait le th. de projection sur un convexe, mon cours donne mieux que le th. de Lax-Milgram qu'on cite surtout sur internet :
http://fr.wikipedia.org/wiki/Th%C3%A...de_Stampacchia
Si comme moi, il y a toujours un moment où vous oubliez pourquoi on s'intéresse à cette forme de fonctionnelle à minimiser, elle vient du fait qu'on fait une formulation variationnelle du problème :
http://fr.wikipedia.org/wiki/Solution_faible
Un exemple concis et concrêt :
http://fr.wikipedia.org/wiki/Formulation_variationnelle
Voilà, je ne vous embête plus !
Merci pour les gentils commentaires précédents et pour les infos très intéressantes sur les machines de von Neumann.
Bien entendu que mes exemples ne sont pas pris au hasard, j'ai aussi beaucoup étudié l'IA et surtout la mise en pratique des théories.
Le discours est bien celui des wikis cités, il est admis que les systèmes experts ont leur limite, passé un certain nombre de règles cela devient trop complexe.
De plus il ne suffit pas d'avoir une puce qui parvient a créer des connexions entre ses composants, il faut une base de connaissance colossale et accessible très rapidement, pour que la décision soit prise. Or les limites de l'indexation seront vite atteinte de toute manière. Si ont peut indexer un mot clé, on n'indexe pas encore un concept.
Viens l'exemple de la reconnaissance de forme, ou les fameux captcha , pourquoi l'homme sera toujours supérieur ?
Car il est capable grâce a sa mémoire et sa conceptualisation abstraite de reconstituer n'importe quelle partie manquante ou de débrouiller les données parasites, des données importantes. Celui qui arrivera un jour a vaincre les captchas les plus complexe avec un programme automatique sans le connaitre au préalable sera très riche. Mais on est tranquille ça n'arrivera pas. Car déjà même avec des programmes spécifiquement écrit ça ne marche pas très bien.
De toute manière on verra bien d'ici quelques années où en sont ces recherches.
Oui, nous sommes encore loin de la citation de Douglas Lenat "Intelligence is ten million rules."
C'est vrai, mais il n'existe pas d'obstacles théoriques à ma connaissance pour indexer les concepts ; d'ailleurs, le web sémantique tente de s'y approcher.
Personnellement, pour les CAPTCHAs même si je ne suis pas expert en traitement d'images, je pense que cela arrivera d'ici quelques années. (je veux dire, pour les CAPTCHAs tolérables, pas ceux que les humains essayent 10 fois de comprendre avant de réussir. E.g. Gmail est à la limite.)
http://javascript.developpez.com/act...-simple-regex/Envoyé par Andrew Hintz
Mais il est vrai que beaucoup de progrès restent à faire en reconnaissance de forme en général. Encore une fois, aucun obstacle théorique, juste une question de temps.
On est d'accord, c'est sympa de spéculer, mais c'est plus utile de chercher concrètement pour voir ce que l'on réussit à faire
C'est pour ça que je trouve ces compte-rendus de recherche frustrants... parce qu'il y a connexions et connexions. Une fois que le réseau de neurones est mis en place, certes l'utiliser cela ressemble à calculer des fonctions de hachage ou à faire une combinatoire d'opérateurs logiques. Mais d'un autre côté, on dispose d'outils mathématiques qui reconstruisent un lien entre des "points" et la structure globale d'un espace. Et par "points", en fait ils vont jusqu'à parler de trajectoires sur un espace à plusieurs dimensions.
Il y a quelques mois, je m'étais acheté (un jour de folie douce... ) un livre qui fait une synthèse de ces approches :
[ame="http://www.amazon.fr/Th%C3%A9orie-Morse-homologie-Floer-Mich%C3%A8le/dp/2759805182"]Th?orie de Morse et homologie de Floer: Amazon.fr: Mich?le Audin, Mihai Damian: Livres@@AMEPARAM@@http://ecx.images-amazon.com/images/I/517jVLaX3zL.@@AMEPARAM@@517jVLaX3zL[/ame]
Bon, au final, je l'ai juste feuilleté parce que je tire vraiment la langue quand j'essaye de comprendre dans le détail... Mais chez les ingénieurs de chez IBM, il doit bien y en avoir quelques uns qui connaissent cela sur le bout des doigts et qui explorent quelle sémantique peut mesurer - dans la généralité de son utilisation - un réseau de neurones.
J'avais aussi feuilleté dans une librairie une approche qui regarde, au-delà de l'apparence "connexionniste" (?), les aires du cerveau dédiées à l'analyse du champ visuel :
http://www.eyrolles.com/Sciences/Liv...-9782730215077
Là encore, pour reconstruire l'interprétration d'une image par les neurones, ils y voient plus qu'un jeu de connexions et utilisent le concept de solution faible.
Computing innovations to imitate, not replace, human brain: http://www.zdnetasia.com/computing-i...n-62301970.htm
IBM Singapore's CTO Foong Sew Bun clarified that its Watson project was not to build a human brain as it is "much too complex and marvelous to ever replicate" in silicon form.
"We are simply drawing inspiration from the brain's ability for massively parallel processing to build a more efficient computer," he stated.
Leong, too, agreed that it is unlikely these supercomputers will ever replace the human brain while Leong was slightly more hopeful, saying that it would be a "long, long time" before a computer will behave like those seen in the movie "Terminator".
Pour Franck Z, Flexible logic based on Hilbert Spaces - Quantum minds: Why we think like quarks : http://www.newscientist.com/article/...tum-minds.html
Le lien avec l'IA étant Quantum logic could make better robot bartenders http://www.newscientist.com/article/...artenders.html
Génial ! Merci d'avoir trouvé ce trésor ! Dommage que je ne puisse mettre qu'un pouce vers le haut à ta réponse !
En plus, les espaces de Hilbert échappent - je pense - aux limitations théoriques connues de l'informatique basée sur l'algèbre de Boole (l'arithmétique, quoi) : parce que quand on cherche à construire des impossibilités par les raisonnements diagonaux, comme dans les th. de Gödel et consors, il faut passer par la dualité dans les espaces de Hilbert et celle-ci offre un théorème qui identifie l'espace et son dual (le th. de réprésentation de Riesz), ce qui fait qu'on ne peut probablement pas y créer des entités qui disent "je ne suis pas représentable". Au pire, c'est juste la création progressive d'une famille libre de vecteurs qui explore les possibilités de l'espace de Hilbert.
Cool !
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager