ah merde c'est 20 jours par mois :mouarf: ... il faisait vraiment chaud en effet :lol:
Version imprimable
et on aura le terminator :aie:...
Je me disais un peu la même chose. Notamment, avec des techniques de "sparse coding" (que l'on peux voir comme une relaxation convexe des k-means) j'ai l'impression que l'on pourrait avoir aussi ce genre de résultat.
D'ailleurs il y a des contraintes de parcimonie (sparcity) dans l'algorithme.
Au bout du compte j'aurais plutôt la remarque inverse de pseudo
code, c'est plus la prouesse technique que l'aspect théorique qui est impressionnant dans cette publication.
si on reflechi bien au fonctionnement de notre apprentissage, on peut peut-etre deviner comment ont fait google pour faire apprendre à reconnaitre des chats à un programme.
on apprend d'abord à voir des choses, puis on entend des mots en rapport avec ces choses. et des connections sont établies entre les 5 sens.
c'est quand meme rudement impressionnant comme prouesse. mais loin de suffire pour faire un T800 capable de reconnaitre sarah connor.
Hello a tous (d'avance desole pour le manque d'accent, clavier QWERTY oblige ...)
Je ne lis pas la meme chose que vous personnellement...
Je lis que ce reseau a ete lache sur Internet et apres visionnage de video youtube en tous genre, il a pu grace a certaine source d'information (visuelle, audio, ecrite) de reconnaitre et de classer des contenus comportant des chats.
Si ce que j'ai compris reflete bien la realite, alors c'est une prouesse HORS NORME.
Pour le moment ce reseau n'a qu'une seule fonctionnalite : apprendre et stocker.
En effet, il reconnait des elements virtuels (animaux etc..) et est capable de discerner les ressemblances afin de stocker ces elements ensemble.
Manque pas grand chose avant skynet ... hum .. hum ..
PS : Par hasard j'ai regarde Terminator 3 hier soir (coincidence ?), et la methodologie de deploiement de skynet, fut de le lacher sur internet. Gloups !
Bonne journee
Il faut lire l'article de l'équipe de Google pour comprendre ce qui a été réellement réalisé.
D'abord il ont pris des vidéos, ils ont extrait de ces vidéos des "frames" et pour chaque frame ils ont extrait une image. Donc pas de son, pas de texte...
Ensuite ils ont entraîné un réseau autoencodeur, c'est à dire un réseau qui est censé reproduire en sortie l'image qu'il avait en entrée mais avec des contraintes fortes sur les connexions entre les différentes couches du réseau.
La conséquence est que certaines partie du réseau se sont spécialisées dans
l'encodage (la représentation) de contenus fréquemment vus c'est à dire pour des vidéos sur YouTube des visages, des chats et des corps humains.
Ceci reste une explication grossière mais un peu plus technique et plus proche de la réalité que l'article du New York Times. Pour ceux qui sont intéressé le lien vers l'article scientifique publié dans la conférence ICML (International Conference on Machine Learning) est donnée dans l'article du NYT.
Rien de tel, ce sont les chercheurs qui ont remarqué que certains neurones du réseau avaient une forte activation quand on leur présentait une image de chat.Citation:
Envoyé par Kaamui
Comme je le disais, la prouesse technique est énorme mais ce type de résultat est assez commun dans les techniques d'encodage parcimonieux
(sparse coding).
Typiquement, dans les systèmes utilisés pour la reconnaissance de visage basés sur l'encodage parcimonieux, sous certaines contraintes (non-négativité, parcimonie), les "codes" se spécialisent pour certaines parties du visages (yeux, bouche, nez), sans qu'à aucun moment il n'ait été utile de leur préciser à quoi ressemblait ces différentes parties.
Par exemple:
http://www.cs.rutgers.edu/~mlittman/...neg-matrix.pdf de 1999
ou
http://www.cim.mcgill.ca/~levine/Fac...ed_On_NNSC.pdf de 2007
C'est évidemment moins impressionnant mais ce ne sont pas les mêmes moyens... Ces algos doivent s'entraîner en quelques heures maxi sur PC standard je dirais
Mon impression:
C'est assez démentiel, 16000 processeurs, mais pourquoi au final? Reproduire un cerveau sur ordinateur? Si on y pense bien ça parait assez ridicule d'y mettre tant de ressources...
Et pourquoi ne pas créer directement un cerveau électronique? Ca serait plus efficace je pense. Un nouveau composant pour votre ordinateur la carte AI (non, ce n'est pas une plaisanterie).
Un processeur devrait traiter 6,25 millon de neurones et on aurait un vrai cerveau.
Et ceci démontre sans aucun doute, que l'internet est constitué majoritairement de
http://www.youtube.com/watch?v=grWNJTcz8o4