Oui, surtout que pour l'instant, on test les réactions des voitures autonomes par rapports aux piétons, aux cyclistes, aux autres véhicules conduits par des humains, et aux éventuels événements pouvant se produire lorsque l'on conduit.
Après il faudra encore tester comment les véhicules autonomes réagissent quand il y a une plus grosse mixité entre véhicules autonomes et conducteurs humains, puis ce qui se passe quand il y a surtout (voir exclusivement) des véhicules autonomes, par exemple, est-ce qu'il y a des risques d'ordre contradictoires lorsque plusieurs véhicules de ce genre sont impliqués dans une situation pouvant être dangereuse ou est-ce qu'ils seront capables de bien se reconnaître (même entre différents constructeurs) pour arriver à une situation où justement les accidents dépendant des véhicules eux-mêmes ne pourront plus arriver, et le cas échéant, comment gérer les autres sources potentiels de dangers si plusieurs véhicules autonomes sont amenés à réagir.
Bref, il y en a encore effectivement pour un moment.
On entend beaucoup parler d'IA avec les voitures autonomes mais cela n'en est pas : C'est du Deep Learning ce qui n'est pas du tout la même chose
on peut rapprocher cela du concept "d'IA faible" -> On a juste l'impression que la voiture est "intelligente"
La voiture ne "prend pas" de décision, elle reconnait une situation particulière déjà apprise et agit en conséquence (obstacle = arrêt)
C'est bien pour cela que les voiture on besoin de parcourir des millions de kms pour emmagasiner des données.
Si c'était de "l'intelligence artificielle pure", il suffirait juste de lui fournir les règles du code de la route, elle pourrait se débrouiller toute seule
Je suis désolé mais intelligence artificielle et Deep Learning sont étroitement liés, toutes intelligence, artificielle ou non est obligé de passer par du deep learning. Un bébé doit entendre des milliers de mots avant de savoir parler, c'est du deep learning ! On parle d'intelligence dès qu'il y a apprentissage puis déduction. La voiture apprends sur des exemples puis en déduit quoi faire en situation réel, c'est ça l'intelligence !
J'ai l'impression que tu t'inventes ta propre définition de l’intelligence artificielle. D'après la définition habituelle de intelligence artificielle, le deep learning est bien une des façons de faire de l’IA, et même celle qui marche le mieux actuellement.
Avec cette définition l'humain n'est pas non plus une créature intelligente. Pour information l'humain aussi passe les premiers temps de sa vie a apprendre a reconnaitre les formes, éviter les obstacles, ... et même l'apprentissage du code de la route n'est pas si évident que ça ce qui fait qu'on a du imposer un examen pour ça.
Non c'est la définition "grand public" de l'IA qui trop simpliste.
La véritable permet d'extrapoler à partir de connaissances d'un domaine étranger au problème rencontré (qui peu être de nature inconnu) une solution valable.
Le deep learning c'est de l’accumulation et de la classification d'informations, de la statistique.
C'est se constituer une énorme bibliothèque couvrant tous les cas possibles, les classifier et y associer des actions
Mais en aucun cas, la voiture ne peut utiliser sa base connaissance pour autre chose, résoudre un problème de plomberie, par exemple => Elle n'est donc pas "intelligente" a proprement parler.
De plus un humain qui passe le permis de conduire (40 leçons de conduite d'une heure) va savoir se débrouiller en 40 heures. Il va agir par mimétisme (s'imprégner
du comportement des autres conducteurs) et être capable de se déplacer dans des lieux totalement inconnus de lui même et non appris -> c'est pas le cas des voiture autonomes actuellement
La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue.
Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu'il s'agit d'une simple mystification : le programme ne comprend en réalité rien.
Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».L'intelligence artificielle faible (abrégé IA faible) est une intelligence artificielle non-sensible qui se concentre sur une tâche précise. L'IA faible est définie en contraste avec l'IA forte (une machine dotée de conscience, de sensibilité et d'esprit) ou l'intelligence artificielle générale (une machine capable d'appliquer l'intelligence à tout problème plutôt qu'un problème spécifique). Tous les systèmes actuellement existants sont considérés comme des intelligences artificielles faibles.
Siri est un bon exemple de l'intelligence faible. Siri fonctionne dans une gamme prédéfinie limitée, il n'y a pas d'intelligence réelle, pas de conscience de soi, ni de vie. Dans Forbes (2011), Ted Greenwald a écrit: « Le couple iPhone/Siri représente l'arrivée de l'IA hybride, combinant plusieurs techniques d'IA faible, plus l'accès aux données massives du cloud.» Le chercheur en intelligence artificielle Ben Goertzel, sur son blog en 2010, a déclaré que Siri était « TRÈS limitée et fragile », démontré par des réponses ne répondant pas à la question si vous en posez en dehors des limites de la demande.
Oui oui, (24h reste à voir mais c'est très bien) mais il ne sait jouer qu'au jeu de Go !
Tu serai surpris de toutes les "extrapolations" qu'un cerveau humain peut faire dans des domaines qu'il n'a pas appris de manière formelle ou académique !
C'est la différence entre "apprentissage" et "intelligence"
De plus l'intelligence suppose la conscience du "moi", la voiture a t'elle conscience d'elle même ?
Deep Learning
Pourquoi modélisé ? Au final c'est comme vouloir un fichier XML...un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires
Pour moi, " distinguer les choses " est une intelligence bien plus futile que d'avoir du " créatif/inventif ". Pourtant sans ce " futile ", rien ne fonctionne... Ce n'est pas un sens comme pourrait l'être la vue ou l'odora mais cela en ai un dans le cadre psychomoteur. J'ai mis un casque VR et je n'y ai vue aucune différence que si c'était sur un écran alors qu'il montrait un lieu filmé (2D ou 3D Relief), par contre, le lieu lui même, si j'y suis, je le perçois autrement (3 Dimensions et pas des polygones). Extrêmement réaliste n'est pas aussi réaliste que d'y être pour de vrai.
La fracture numérique, je n'en souffre pas... Une voiture n'est pas "vois tu re ?". SEN (en rapport avec SONY) ne sont pas .sen [nom de domaine d'un pays respectable de par certain voisin que j'ai eu](sauf si ils veulent les moqueries)...
Sinon, j'ai vue deux documentaires m'étant en avant le LIDAR, un pour modéliser en 3D une cavité naturelle et l'autre pour montrer un poids lourd de l'armée des USA faisant du hors piste et recevant des ordres par satellite(s) à des coordonnées très précises.
Rien à voir avec la vision "humaine" et pourtant l'humain s'adapte et détermine des formes " modélisé en 3D " choses que la machine elle ne connaît pas surtout de façon naturelle puisque c'est son " créateur " qui lui a " injecté " la " conscience " et l'ihm pour être " compris ou sous surveillance monitoring ".
Dernière modification par MikeRowSoft ; 02/04/2018 à 01h31.
Parce qu'on ne lui a jamais demander autre chose, on aurait très bien pu faire une IA qui joue au Go, qui reconnait des images et qui joue au échec en même temps, mais cela n'a juste aucun intérêt à l'heure actuelle.
AlphaGo Zero n'a rien appris de manière "académique " car il n'a fait que jouer des millions de partie contre lui-même, il n'a reçu aucun savoir à part les règle du jeu. La chose qui bloque le plus les IA (réseaux de neurones) aujourd'hui, c'est la puissance de calcule et de stockage.
Tiens, rions un peu en constatant qu'il y a encore du boulot :
Tapez simplement "drone russe" et ça mord !
Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peut–être qu'il peut être sûr, etc.
Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
Mes 2 cts,
--
jp
Jusqu'à preuve du contraire la définition d’un terme est celle qui est communément admise. On parle d’intelligence artificielle pour les systèmes capable de simuler plus ou moins bien une intelligence, y compris pour des cas très spécifiques, y compris avec des algorithmes absolument pas basés sur l'apprentissage comme dans la plupart des jeux vidéo.
Ta définition de IA implique une intelligence très versatile aux capacité proche de l'humain. En effet les IA actuelles n'en sont pas là, mais ça n'est pas par ce que la définition communément admise ne te plais pas que tu as le droit de la changer unilatéralement.
Libre a toi de trouver un autre nom si tu veux, j'ai l'impression que le terme "automate conscient" correspondrait bien a ton idée de l'IA.
Ce qui est également, en l'état de la connaissance actuelle, en grande partie comment fonctionne notre cerveau.
En effet car ça n'est pas du tout ce qu'on lui demande, les IA sont volontairement spécialisée pour répondre a des domaines spécifiques et leur apprentissage et focalisé là dessus. Tout comme l’intelligence humaine est focalisée à répondre aux problèmes spécifiquement humains.
Il leur faut actuellement bien plus de 40 heures d'apprentissage et le résultat n'est pas encore aussi bon, mais les voitures autonomes savent bien conduire sur des routes qu'elles ne connaissent pas.
Justement, non. Il a notamment aussi appris à jouer aux échecs et au Shogi, là aussi en 24 heures, et la aussi en dépassant les joueurs pro.
C'est vrai que le sujet est éminemment philosophique, mais encore faut il ne pas partir sur des conclusions hâtives. Beaucoup de philosophes lient la conscience au moi, mais l’intelligence n'est pas forcément associé directement à la conscience.
Quant a savoir si lors de son apprentissage la voiture prend conscience de soi, ça me parait assez difficile a déterminer. La notion de conscience étant un éternel débat philosophique.
La bonne approche ne serait-elle pas de laisser le conducteur conduire et donc de lui demander d'être constamment vigilant et d'assigner à l' IA la tache de surveiller ce que fait le conducteur pour l’empêcher de sortir des limites entre lesquelles il doit évoluer quitte à lui faire des commentaires pédagogiques où plus à arrêter la voiture si le conducteur n'est plus fiable. C'est le principe du moniteur d'auto-école avec doubles commandes qui a tout de même fait ses preuves.
C'est le principe des système d'aide à la conduite que l'on retrouve sur pas mal de voiture haut de gamme actuellement dans le commerce.
Ça peut être utile, mais on est très loin du but fixé qui est la conduite autonome qui changerait simplement tout au niveau de notre approche de l'automobile : plus besoin de permis, possibilité de mutualiser les voitures, possibilité d’occuper son temps en voiture a autre chose que la conduite, ...
Un beau rêve mais une utopie inatteignable pour la bonne et simple raison que ça ne pourra bien fonctionner qu'à la condition que du jour au lendemain tous les véhicules en circulation partout dans le monde basculent en mode autonome.
Il faudrait donc que tout le parc mondial soit équipé d'un calculateur prêt à switcher vers l'autonomie un jour, lointain on dirait, parce que je vois mal cohabiter des véhicules autonomes, qui arriveront même à "discuter" entre eux un peu comme nous discutons à l'heure actuelle par exemple à un carrefour, à coups de clignotants pour les bien élevés et de regards et de signes pour savoir qui fait ou veut ou va faire quoi, mais comment les véhicules équipés vont-ils se comporter au milieu de véhicules de l'ancien monde : tracteurs agricoles, la vieille 4L du papi qui va voir ses vignes, les deux-roues, etc.
Bref, on va nous enfumer pendant des siècles pour un résultat merdique, car je ne vois pas toute la planète basculer vers cette autonomie pronée par des utopistes.
Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peut–être qu'il peut être sûr, etc.
Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
Mes 2 cts,
--
jp
Pour info, c'est déjà ce que font les véhicules autonomes actuels qui circulent au milieu du trafic normal sans aucune communication inter-vehicules. Il y a clairement encore des progrès a faire pour atteindre le niveau de fiabilité d'un humain, mais rien ne semble indiquer que ça soit impossible.
Je trouve l'orientation des messages un peu trop partisane de la perfection humaine... Il n'y a qu'à avoir une heure de route quotidienne pour aller et revenir du boulot pour se rendre compte du nombre de bras cassés que l'on peut trouver sur nos routes (conducteur pas réveillé, au téléphone, en train de récupérer le doudou tombé du petit derrière, chargé aux médocs, en train de mater une jolie fille sur me trottoir... Ou plus simplement un peu distrait par une pensée...)
Un des gros avantages de l'humain, et que tout bon instructeur d'auto-ecole doit faire passer comme message, c'est d'arriver à prévoir le risque, à voir dans chaque usager de la route, dans chaque piéton, dans chaque enfant jouant au ballon, dans chaque platane... Un danger potentiel pour sa conduite. Ne pas se dire qu'il y a un arbre, qu'il faut passer à côté et pas foncer dedans, mais arriver à penser que potentiellement, l'arbre peut subitement se mettre à traverser la route (j'exagère exprès...).
Pour le moment, on doit en être à éviter les arbres qui ne bougent pas... Et malheureusement pas les piétons cyclistes qui bougent dans le noir...
L'humain n'est pas parfait, mais il sait éviter de faire des erreurs!
C'est idiot, vu que si je me souviens bien de cet accident, même un conducteur humain n'aurait pas pu l'éviter. Une voiture autonome devrait pouvoir à terme puisque avec des capteurs thermiques elle peut voir le piéton dans l'obscurité.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager