Voitures autonomes : « En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager »,
déclare Geoffrey Fowler, chroniqueur technologique
Geoffrey Fowler, un chroniqueur technologique, partage ses inquiétudes dans un article de blog après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Malgré les assurances de sécurité, Fowler constate que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne que le rappel visait à encourager l'attention des conducteurs en détectant les mains sur le volant, mais son expérience démontre que la voiture peut traverser la ville sans qu'il ait besoin de lever les mains du volant pendant des périodes prolongées.
Tesla fait face à des problèmes persistants liés à son système Autopilot, malgré un rappel massif de plus de 2 millions de véhicules. Consumer Reports indique que les tests préliminaires révèlent que la solution de Tesla pour surveiller l'attention des conducteurs est insuffisante, permettant aux conducteurs de neutraliser le système et de l'utiliser de manière abusive, créant ainsi des risques pour la sécurité. Bien que Tesla ait publié une mise à jour logicielle en réponse à une enquête fédérale, Consumer Reports estime que les changements apportés ne vont pas assez loin pour prévenir une mauvaise utilisation. Des inquiétudes subsistent quant à la capacité des conducteurs à contourner les contrôles et à utiliser l'Autopilot de manière inappropriée, malgré les modifications apportées par le rappel.
Tesla a demandé à la National Highway Traffic Safety Administration (NHTSA) de ne pas divulguer l'implication de ses logiciels Autopilot et Full Self-Driving dans les accidents de la route, alléguant que ces informations relèvent du secret commercial. La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises. Les systèmes Autopilot et Full Self-Driving ont été au centre de controverses, avec des enquêtes en cours sur des accidents, certains mortels, impliquant des véhicules Tesla utilisant ces technologies. Malgré les promesses de conduite autonome de Musk, les logiciels de Tesla sont critiqués pour leurs performances. En juin, on a signalé 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. La NHTSA enquête sur 35 accidents impliquant des systèmes avancés d'aide à la conduite de Tesla depuis 2016, dont 14 ont entraîné des décès.
Tesla accusée de cacher les accidents liés à son Autopilot
Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla. La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.
Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.
Selon les données de la NHTSA, les accidents mortels et les blessures graves associés à Autopilot de Tesla ont considérablement augmenté, avec une focalisation particulière sur la technologie Full Self Driving encore en phase bêta. Depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA en cas d'accident impliquant des systèmes de conduite partiellement automatisés, tels que ceux de niveau 2. Les statistiques révèlent que Tesla était impliqué dans les trois quarts de tous les accidents ADAS signalés entre juillet 2021 et mai 2022, totalisant 273 accidents sur 367. De plus, cinq des six décès répertoriés dans les données de juin 2022 étaient associés à des véhicules Tesla. Ces chiffres mettent en évidence une tendance préoccupante qui soulève des inquiétudes quant à la fiabilité et à la sécurité d'Autopilot.
Critiques envers Tesla et Musk pour un Autopilot jugé trompeur
Les critiques envers Tesla et Elon Musk s'intensifient, notamment en raison du nom "Autopilot" jugé trompeur par le sénateur américain Edward Markey en 2020. Markey a exhorté Tesla à renommer le système, soulignant son potentiel danger et appelant à la création d'outils de surveillance des pilotes. Tesla a répondu en affirmant avoir pris des mesures pour améliorer la sécurité, notamment en introduisant de nouveaux avertissements.
Cependant, malgré les affirmations de Musk sur la supériorité de la sécurité des modèles autonomes, les poursuites judiciaires se multiplient. Un juge californien a ordonné que Musk soit interrogé sous serment concernant ses déclarations sur Autopilot, malgré les tentatives de Tesla de discréditer une éventuelle vidéo de Musk comme étant un deepfake. La cour a rejeté cet argument, ordonnant finalement que le PDG de Tesla se présente au tribunal pour une déposition sous serment.
Geoffrey Fowler, le chroniqueur technologique, a soumis sa Tesla à deux tests de conduite identiques avant et après une mise à jour. Le processus de rappel pour la réparation, signalé comme manquant d'urgence, a révélé des lacunes dans la facilité d'obtention des mises à jour. L'auteur a utilisé la fonction Autosteer, décrite comme une version bêta par Tesla, mais largement disponible. Les essais ont montré que, malgré le rappel, Autosteer continuait de s'activer dans des conditions non appropriées, y compris en dehors des autoroutes et à travers des intersections avec des panneaux d'arrêt, provoquant des situations dangereuses.
Les avertissements visuels ont été améliorés, mais l'auteur s'interroge sur l'impact potentiel des distractions d'écran sur la sécurité routière. Les résultats des tests soulèvent des questions sur la nécessité d'une régulation plus stricte de la fonction Autosteer par la NHTSA et suscitent des préoccupations quant à la conception et à la sécurité du logiciel d'Autopilot de Tesla.
Geoffrey a exprimé des préoccupations quant à l'inaction de la NHTSA (National Highway Traffic Safety Administration) face aux problèmes de sécurité liés aux mises à jour logicielles de Tesla. Le sénateur Richard Blumenthal appelle à des mesures plus strictes de la part de Tesla et demande à la NHTSA d'agir contre Elon Musk. La NHTSA déclare que la responsabilité de développer des correctifs de sécurité incombe au fabricant, et elle n'approuve pas les solutions à l'avance.
Le centre de recherche de l'agence prévoit des tests sur les véhicules Tesla rappelés, mais il n'est pas clair quand cela se produira. Le texte souligne la nécessité de réglementations plus rigoureuses pour les technologies automobiles, comparant la situation aux examens préalables des applications pour téléphones mobiles. Le sénateur Markey conclut en appelant à des solutions de sécurité plus intelligentes pour les voitures du futur.
Geoffrey souligne le besoin d'une réglementation plus stricte et d'une supervision gouvernementale plus rigoureuse, appelant à une limitation de la fonction Autosteer aux autoroutes à accès limité. Finalement, il interroge sur la responsabilité du gouvernement et de la NHTSA (Administration nationale de la sécurité routière) dans la supervision des mises à jour logicielles des véhicules autonomes et appelle à des mesures plus strictes pour garantir la sécurité publique dans cette ère émergente de véhicules autonomes.
Source : Geoffrey Fowler's blog post
Et vous ?
Quel est votre avis sur le sujet ?
L'analyse de Geoffrey Fowler est-elle pertinente ?
Êtes-vous pour ou contre les voitures autonomes ?
Partagez-vous le sentiment d'insécurité persistant de Geoffrey Fowler au sujet des Tesla ?
Voir aussi :
Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents
Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige, de quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations
Partager