En matière de surveillance généralisée également.
Par effet de bord prévisible, la confiance s'effondre. Et ça c'est pas bon du tout.
Discussion :
En matière de surveillance généralisée également.
Par effet de bord prévisible, la confiance s'effondre. Et ça c'est pas bon du tout.
La technologie Autopilot serait-elle à l'origine d'un accident mortel d'une voiture Tesla Model S ?
Une enquête préliminaire a été ouverte
L’organisme chargé de la sécurité routière américaine, la NHTSA, a ouvert une enquête préliminaire pour contrôler l’efficacité du système de pilotage automatique utilisé par le constructeur automobile Tesla pour ses modèles récents. Cette enquête vient après qu’un propriétaire de Tesla Model S soit décédé à la suite d’un accident sur une autoroute aux États-Unis.
Le conducteur, du nom de Joshua D. Brown, conduisait sa Model S, en enclenchant le système de pilotage automatique, quand il fut coupé par un camion qui a tourné à gauche du véhicule, au niveau d’une intersection. À l’heure actuelle, l’origine de l’accident n’a pas encore pu être définie, mais ce qui est sûr c’est que la manœuvre du poids lourd a été subite au point que la technologie Autopilot, et encore moins le conducteur n’ont pu enclencher à temps le système de freinage.
Étant informé sur l’enquête préliminaire, Tesla a affirmé qu’il a fallu 210 millions de kilomètres avant qu’un accident mortel se produise à bord d’un de ses véhicules autonomes alors que, d’après les statistiques, il y aurait un mort tous les 151 millions de kilomètres sur les routes américaines. Le constructeur automobile a aussi affirmé qu’enclencher le système de pilotage automatique n’exempte pas le conducteur de poser les mains sur le volant. Cela est d’autant plus recommandé, d’après Tesla, vu que cette technologie est encore en développement.
Ce n’est pas la première fois que la technologie Autopilot est pointée du doigt dans un accident. C’est le cas notamment d’un propriétaire d’une Tesla X qui a affirmé qu’en enclenchant le mode pilotage automatique, sa voiture s’est comportée d’une manière bizarre et a fini par foncer toute seule dans un mur de parking. Après analyse du journal de bord du véhicule accidenté, Tesla avait alors affirmé que le système de pilotage automatique n’a pas été enclenché avant l’accident. Mais cette fois-ci, le constructeur reconnaît que sa technologie Autopilot ne serait pas encore totalement efficace.
Mieux comprendre les fonctionnalités de la technologie Autopilot du constructeur Tesla
Le système de pilotage automatique permet à un véhicule, de marque Tesla, de suivre parfaitement la route. Il n’est pas activé automatiquement. Si le conducteur actionne le clignotant, le véhicule va changer automatiquement de voie. Il dispose aussi d’un régulateur de vitesse dynamique qui permet d’adapter la vitesse selon le trafic. Cette technologie dispose aussi d’une fonctionnalité qui permet de contrôler numériquement le moteur, le volant et les freins afin d’éviter les collisions frontales et latérales ainsi que les sorties de route. Avec cette dernière fonctionnalité, comment se fait-il alors que la voiture de Joshua ne se soit pas arrêtée à temps en voyant le semi-remorque qui a roulé perpendiculairement ?
Selon Tesla, le fond du ciel était très lumineux, au moment de l’accident, il se pourrait alors que les capteurs n’aient pas remarqué le côté blanc de la remorque. Dans les mêmes conditions et en mode manuel, le conducteur aurait-il pu échapper à l’accident ? Il n’est pas facile de répondre à cette question tant que les circonstances de l’accident ne sont pas élucidées. Quoi qu’il en soit, le système de pilotage automatique est censé apporter plus de sécurité aux passagers par rapport à la conduite manuelle. En effet, la technologie utilise de nombreux capteurs, détectant ainsi le moindre obstacle, du moins si les capteurs fonctionnent bien. Ce qui n’est pas le cas de la vigilance humaine qui peut être détournée assez facilement.
À ce propos justement, quelques semaines auparavant, le constructeur automobile a déclaré que les capteurs utilisés par son système de pilotage automatique ne détectent pas tous les obstacles, surtout quand ils sont très fins. La portée des capteurs est aussi limitée, ils ne peuvent pas détecter les obstacles qui se trouvent au-dessus du toit et en dessous du tableau de bord. En d’autres termes, le « champ de vision » des capteurs se limite donc au niveau du parebrise. On comprend donc mieux pourquoi Tesla insiste tant sur le fait qu’enclencher le mode pilotage automatique ne signifie pas que le conducteur enlève ses mains du volant. Toutefois, il n’écarte pas des améliorations sur sa technologie Autopilot.
Il faut attendre la fin de l’enquête préliminaire de l’agence pour la sécurité routière américaine pour savoir si des correctifs et des améliorations seront apportés au système de pilotage automatique de Tesla. Si la défaillance vient du capteur, le constructeur automobile pourrait aussi rappeler ses véhicules pour une révision des capteurs.
Si on se base sur la déclaration de Tesla, Autopilot est une technologie en voie de développement, elle peut donc présenter certaines failles. Or la sécurité des passagers à bord est un des atouts des véhicules utilisant une intelligence artificielle. Le système de pilotage automatique, conçu par Tesla, serait-il à l’origine de cet accident mortel ou est-ce que cela serait dû à un manque de vigilance de la part du conducteur ? Il faut attendre la conclusion de l’enquête préliminaire pour déterminer les responsabilités dans cet accident qui a coûté la vie à un conducteur de Tesla Model S.
À l’ère où l’intelligence artificielle intègre le monde automobile, Tesla affirme que le pilotage automatique reste une technologie en développement. Il peut présenter des failles. Cependant, s’il est supervisé par un conducteur, il améliore considérablement la sécurité à bord et réduit les efforts à fournir par le conducteur. Est-ce une manière pour Tesla de reconnaître que son système de pilotage automatique pourrait bien être à l’origine de cet accident ?
Sources : Tesla Motors, The Washington Post
Et vous ?
Que pensez-vous de la technologie Autopilot ?
Voir aussi :
Certains constructeurs d'autos collectent des données à distance sur les voitures, ce que la police pourrait réclamer à des fins d'application de la loi.
ekin Patrol, une voiture de police intelligente dotée d'un système de reconnaissance faciale et testée en Europe et au Moyen-Orient
Toyota annonce un partenariat avec Microsoft pour développer des services de voiture connectée basés sur la plateforme de cloud Microsoft Azure
Sidérant! Parce que pour certains, une fois développée, une technologie ne présentent plus de failles???Si on se base sur la déclaration de Tesla, Autopilot est une technologie en voie de développement, elle peut donc présenter certaines failles
Là, il faut changer de métier parce que avec ce genre de discours, il va y avoir des milliers de morts...
Alors : l'objet intelligent tue, et/ ou s'il est connecté, il vous dénonce. Le beau futur !![]()
Il serait idiot de penser qu'une voiture autonome serait infaillible. Après ce n'est qu'une question de stats. Est-ce qu'il y aura moins de mort avec les systèmes automatique qu'avec les voitures ordinaires.
c'est comme à l'Armée..on a droit à x pour cent de pertes humaines![]()
exact...la circulation automobile implique une complexité d'ordre n..( je ne sais pas si c'est exponentiel ou logarithmique je laisse les spécialistes répondre)
Parce qu'en tant que conducteur automobile je dois détecter la voiture qui est devant moi , derrière sur les côtés à des vitesses différentes
Si seulement il n'y avait que les voitures.
Il ne faut pas oublier les motos qui roulent entre les fils, les vélos, les piétons, les revêtements de routes variables, la qualité des marquages au sol variable et parfois inexistante, les panneaux de signalisation, les feux tricolores parfois en panne, les travaux, les bus (prioritaires en ville quand ils quittent un arrêt), etc, etc, etc.
Une voiture 100% autonome, je n'y crois pas mais alors pas du tout.
Parler de semi autonomie me semble plus juste : sur l'autoroute, par exemple, car se sont des routes en espace clos maîtrisé, avec la possibilité d'y mettre des capteurs sur la route en complément de ceux des véhicules, etc.
Qu'on lâche un peu une Google Car sur une route de campagne par temps de pluie, ou en montagne en hivers ou encore dans le centre ville d'une cité médiévale (dans le vieux Lyon, par exemple).
Je serai vraiment curieux de voir le résultat![]()
Etant donné que la technologie Autopilot est une machine learning, on peut considérer qu'elle sera ad vitam aeternam en développement car en évolution permanente.
Je trouve que c'est un argument foireux de la part de Tesla pour se couvrir de 100% des situations.
Les questions à se poser sont :
* la technologie est elle fiable à 100% ou non ? (question rhétorique)
* si ce n'est pas le cas, les clients et les autorités en sont elles suffisamment informées ?
Quand on voit la complexité des normes avioniques, où les avions évoluents dans un environnement "simple" (énormément surveillé par le contrôle aérien, pas d'obstacle fixes ni d'impondérable du type animal qui traverse la route...) Il faudrait des normes beaucoup plus strictes pour de l'IA sur route.
Si on impose ce genre de certifications, je ne suis pas sûr qu'autant de monde se lancerait dans la voiture autonome... Et surtout ça évoluerait beaucoup moins vite!
Déjà il faudrait se mettre d'accord, le conducteur conduisait sa voiture ou était-elle en autopilote ?
Comment sur l'autoroute d'un pays où l'on roule à droite, un camion peut-il arriver par la gauche à la perpendiculaire ?
Quelle est la probabilité qu'un être humain fasse mieux dans la même situation ?
De toute manière, il faut attendre le résultat de l'enquête pour avoir des éléments sérieux.
Tutoriels OpenGL
Je ne répondrai à aucune question en MP
- Si c'est simple tu dis que c'est compliqué et tu le fait
- Si c'est compliqué tu dis que c'est simple et tu le sous-traite ou le fait faire par un stagiaire.
De ce qu'on en sait, le conducteur regardait Harry Potter, donc non il ne conduisait pas.
Un cas qui illustre bien le Pebkac en fait.
Y avait une tribune sur je sais plus quel site d'un pilote d'avion qui faisait remarquer que ce genre de technologie est présent dans les avions, mais que dans les avions t'as pas à prendre de décisions dans la demi-seconde. Alors que pour la voiture...
C'est le pilote automatique qui a foiré, il est donc le responsable. C'est comme pour les avions. Tesla va donc indemniser la famille de la victime.
Ta réponse est particulièrement expéditive.
Pour commencer, l'enquête est tjrs en cours.
Ensuite, Tesla vend la technologie Autopilot comme une assistance à la conduite et non comme un pilote automatique, la nuance est grande.
Il est bien précisé dans les conditions d'utilisation que le conducteur doit rester aux commandes de son véhicule.
Ce que l'enquête doit démontrer c'est si le conducteur a identifié le danger et à tenter de reprendre le contrôle de son véhicule.
Vus les premiers éléments de l'enquête, c'est loin d'être une évidence.
Tesla : un conducteur américain a eu la vie sauve grâce au mode Autopilot
Après avoir été victime de malaise sur une autoroute
Après l’accident mortel d’une Tesla Model S, une enquête préliminaire a été ouverte par l’organisme chargé de la sécurité routière américaine (NHTSA) pour vérifier l’efficacité de la technologie Autopilot de Tesla. Alors que le constructeur automobile est au centre d'une polémique, un propriétaire de Tesla Model X vante les mérites de son système de pilotage automatique. Victime d’un malaise en pleine conduite, la technologie Autopilot lui aurait permis de se rendre à l’hôpital le plus proche sans mettre en danger la vie des autres usagers de la route.
Le conducteur se nomme Joshua Neally, c'est un avocat de 37 ans. En juillet dernier, il roulait sur une autoroute dans le Missouri à bord de sa Tesla Model X, surnommée Ender, quand il ressentit des douleurs au niveau de l’abdomen et de la poitrine. Au début, il pensait que c’était juste des contractions musculaires, mais il commença à suffoquer. C’est là qu’il a pris la décision d’enclencher le système de pilotage automatique de sa voiture pour se rendre à l’hôpital le plus proche, situé à une trentaine de kilomètres. Ce n’est qu’une fois arrivé sur les lieux qu’il a repris les contrôles de la voiture pour se garer. Les médecins qui ont pris en charge Joshua ont diagnostiqué une embolie pulmonaire.
Selon Joshua, malgré le malaise il est resté conscient, ce qui a permis à la voiture de rouler sans s’arrêter. En effet, quand le conducteur d’une voiture Tesla, dotée de la technologie Autopilot, ne pose pas ses mains sur le volant toutes les quatre minutes, celle-ci s’arrête automatiquement. Ce sera justement cela qui lui a permis de profiter des fonctionnalités du système de pilotage automatique.
La technologie Autopilot de Tesla divise les opinions. Pour la concurrence, Tesla propose un système qui n’est pas encore au point, mettant ainsi en danger les conducteurs des Tesla nouveaux modèles. Effectivement, après l’accident mortel d’une Tesla Model S, le constructeur automobile a reconnu que c’est une technologie en développement. Cependant, il a fallu 210 millions de kilomètres avant qu’un accident mortel se produise à bord d’un de ses véhicules autonomes alors que les statistiques affirment qu’un accident se produit toutes les 151 millions de kilomètres sur les routes américaines. Pour les amateurs des voitures Tesla, comme Joshua Nelly, cette technologie lui a sauvé la vie.
La technologie Autopilot est en voie de développement, elle peut ainsi présenter des failles et vulnérabilités qui restent encore à améliorer. C’est également une technologie qui, d’après Tesla, exige toujours que le conducteur mette ses mains sur le volant. Au final, l’appellation « Autopilot » ne serait-elle pas erronée, étant donné que la technologie ne permet pas au conducteur d’avoir les mains libres ?
Source : Slate
Et vous ?
Qu’en pensez-vous ?
Voir aussi :
La technologie Autopilot serait-elle à l'origine d'un accident mortel d'une voiture Tesla Model S ? Une enquête préliminaire a été ouverte
Enquête Autopilot : le département US des transports renonce à poursuivre Tesla
n'ayant identifié aucun défaut dans le système de pilotage automatique
Automatiser la conduite des véhicules a été toujours un challenge au vu des risques accrus d’accidents qui pourraient se produire en cas de dysfonctionnement du logiciel. Faisant partie des principaux constructeurs de voitures autonomes, Tesla a décidé de doter ses véhicules d’une fonctionnalité de pilotage automatique connue sous l’appellation Autopilot.
Mais, en mai dernier, une Tesla Model S de 2015, a été heurtée par un poids lourd à un carrefour, entrainant la mort du conducteur. Les données collectées sur le véhicule indiquent que la Tesla était en mode Autopilot au moment de la collision. Le système de freinage d'urgence automatique (AEB) n'a fourni aucun avertissement, et ne s’est pas non plus déclenché pour éviter l’accident. Le conducteur lui-même n'a entrepris aucune action, qu’il s’agisse de freiner ou de prendre une autre direction pour éviter la collision.
Une enquête préliminaire a donc été ouverte par l’organisme chargé de la sécurité routière aux États-Unis pour savoir si le constructeur automobile était à blâmer. Il s’agissait pour la National Highway Traffic Safety Administration (NHTSA) de vérifier si les systèmes de freinage automatique d'urgence ou de pilotage automatique ont pu ne pas fonctionner comme prévu, ce qui aurait alors augmenté le risque d'accident.
L’enquête a inclus un ensemble plus large de 43 781 voitures, des modèles Tesla S et X des années 2014 à 2016. La NHTSA a fait analyser la conception et la performance du système de freinage d'urgence automatique (AEB) dans le véhicule Tesla au centre de l’enquête, ainsi que celui des autres véhicules. Ont également été analysés les problèmes d'interface homme-machine liés au mode de fonctionnement du pilote automatique, des données provenant d'incidents de collision liés aux systèmes Autopilot et AEB de Tesla, et les changements que Tesla a mis en œuvre dans les systèmes Autopilot et AEB.
Le jeudi dernier, le département américain des Transports a publié les résultats de son enquête, et décide de ne poursuivre aucune action contre Tesla, estimant que son système de conduite automatisée contribue plutôt à améliorer la sécurité des véhicules. « L'examen de la NHTSA n'a permis d'identifier aucun défaut dans la conception ou la performance des systèmes AEB ou des systèmes de pilotage automatique des véhicules visés ni aucun incident dans lequel les systèmes n'ont pas fonctionné comme prévu », est-il écrit dans le rapport. « Aucun défaut relatif à la sécurité n'a été identifié pour le moment », poursuit la NHSTA dans son rapport, ajoutant qu’un examen plus approfondi de cette question ne semble pas justifié ; ce qui met fin à l’enquête.
Selon les données publiées par Tesla et incluses dans le rapport de l'enquête, la fonctionnalité Autopilot a permis de réduire de 40 % le nombre d'accidents impliquant des modèles Tesla S et X. En effet, après l'installation de la fonction Autosteer de Tesla (incluse dans la fonction Autopilot), le nombre d'accidents a chuté de 1,3 par million de miles à 0,8 par million de miles. Dans un tweet d’Elon Musk, le PDG de Tesla fait savoir que son entreprise ambitionne de faire passer ce taux à 90 %, alors que sa technologie gagne en maturité.
Il faut toutefois noter que « la clôture de cette enquête ne constitue pas une conclusion de la NHTSA selon laquelle aucun défaut relatif à la sécurité n'existe », a averti l’organisme américain chargé de la sécurité routière. « L'agence surveillera la question et se réserve le droit de prendre des mesures à l'avenir si les circonstances le justifient. » La NHTSA explique en effet que « les systèmes de freinage d'urgence automatique utilisés dans l'industrie automobile […] ne sont pas conçus pour fonctionner de façon fiable dans tous les modes de collision ». Elle rappelle encore que « le système de pilotage automatique est un système avancé d'aide au conducteur qui exige l'attention continue et entière du conducteur pour surveiller l'environnement de circulation et être prêt à agir pour éviter des accidents ».
À propos des risques liés aux voitures autonomes, il faut encore noter qu’en septembre dernier, des hackers ont pu contrôler toutes les fonctions d'une Tesla Model S à distance, y compris le système de freinage.
Sources : Rapport de l’enquête de la NHTSA, Elon Musk (Twitter)
Et vous ?
Qu’en pensez-vous ?
Voir aussi :
Les voitures autonomes bientôt à l'assaut des villes de France ? Le gouvernement autorise leur expérimentation sur les voies publiques
Les voitures autonomes vont tout savoir sur les conducteurs et partager les informations avec les constructeurs et les compagnies d'assurance
Uber annonce que ses voitures autonomes seront finalement testées en Arizona, un État qui ne requiert pas d'autorisation spéciale
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Après l'accident mortel avec une voiture auto-piloté, il fallait bien trouver une histoire ou cette fonction a sauvé une personne.
Il aurait pu se garer sur le coté et appeler les secours vu qu'il était conscient jusqu'à l'hôpital qui se trouve à environs 30 kilomètre. Donc cette histoire c'est de la COM .
Partager