Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel bêta "Full Self Driving" dans l'État,
il ne manque plus que la signature du gouverneur Newsom
Tesla pourrait être contraint de cesser d'utiliser le terme "Full Self Driving" (FSD) en Californie. Mardi, les législateurs californiens ont adopté un projet de loi au Sénat qui pourrait rendre illégale l'utilisation par le constructeur de voitures électriques du nom actuel du logiciel. Le projet de loi, qui a été parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (Démocrate - Long Beach), nécessite désormais la signature du gouverneur Gavin Newsom.
Depuis 2016, Tesla commercialise une option coûteuse appelée Full Self-Driving. Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement.
Ce n'est pas le cas. Aucune voiture disponible à l'achat pour les consommateurs n'est capable de se conduire entièrement de manière autonome. Le California Department of Motor Vehicles (DMV) a des règles dans ses livres qui interdisent de faire la publicité de voitures comme étant «*autonomes*» lorsqu'elles ne le sont pas. Mais il n'a jamais appliqué ces règles.
Ainsi, suite à l'inaction de la DMV, la législature de l'État a décidé d'intervenir et d'établir un projet de loi concernant la publicité mensongère. Le projet de loi, parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (D-Long Beach), a été adopté par le Sénat mardi et se dirige maintenant vers le gouverneur Gavin Newsom pour sa signature.
Le projet de loi ne cible pas directement Tesla, mais Gonzalez a déclaré qu'elle pense que d'autres constructeurs automobiles, dont Ford, GM et BMW, ont été plus clairs sur les limites de leur technologie.Envoyé par Projet de loi
La fausse publicité sur la technologie de conduite autonome est un grave problème de sécurité, a déclaré Gonzalez. Au moins plusieurs décès ont été liés à l'Autopilot de Tesla, la version la moins chère et la plus basique de Full Self-Driving. « Allons-nous simplement attendre qu'une autre personne soit tuée en Californie ? », a-t-elle demandé.
Le nombre d'accidents, de blessures et de décès pouvant impliquer Full-Self Driving est inconnu. Le système national de signalement des accidents, vieux de plusieurs décennies, fracturé entre les villes et les États, est mal équipé pour déterminer des faits qui sont de plus en plus centraux à l'ère des véhicules routiers contrôlés par logiciel.
Une voiture moderne telle qu'une Tesla est dotée de minuscules ordinateurs qui collectent et traitent de grandes quantités de données qui peuvent être communiquées au fabricant via des connexions cellulaires et Wi-Fi. Tesla a résisté à la divulgation de ces données aux régulateurs ou aux chercheurs en sécurité.
La pression monte
Les régulateurs commencent à exercer plus de pression. La National Highway Traffic Safety Administration mène plusieurs enquêtes sur le bilan de sécurité de l’entreprise, notamment une série de voitures Tesla qui ont percuté des véhicules d’urgence garés sur le bord de la route.
Récemment, la NHTSA a ordonné à Tesla de lui fournir des données détaillées sur les accidents pouvant impliquer ses systèmes de conduite automatisés.
La Californie « interdit déjà la commercialisation trompeuse » des véhicules automatisés, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud. « L'adoption de ce projet de loi, cependant, fournirait certainement des preuves assez solides de l'intention législative d'une manière qui pourrait être significative pour une agence administrative d'État ou un juge d'État », a-t-il déclaré.
Le projet de loi ne répondrait à aucun problème de sécurité concernant le logiciel, mais ciblerait simplement sa commercialisation. Cela établirait également de nouvelles normes pour les constructeurs automobiles lorsqu'il s'agit d'expliquer les capacités de la technologie d'assistance à la conduite. Cependant, on ne sait pas comment la règle sera appliquée, car la California Department of Motor Vehicles serait chargée de prendre des mesures contre Tesla).
Les législateurs ont adopté le projet de loi quelques semaines seulement après que la DMV de l'État a accusé Tesla d'avoir utilisé un marketing trompeur pour faire la publicité de ses logiciels Autopilot et FSD.
Le logiciel Autopilot agit comme une fonction d'assistance au conducteur qui permet à la Tesla de se diriger, d'accélérer et de freiner automatiquement dans sa voie, tandis que le FSD est un module complémentaire en option qui peut changer de voie et s'arrêter aux feux de circulation, ainsi que s'arrêter aux panneaux de signalisation. Tesla a dit aux conducteurs que les deux fonctionnalités nécessitent un conducteur titulaire d'un permis de conduire le véhicule afin d'être prêt à prendre le relais à tout moment.
Certains régulateurs craignent que le marketing autour du logiciel ne donne aux conducteurs un faux sentiment de sécurité. L'année dernière, un homme a été arrêté pour être monté sur la banquette arrière alors qu'il utilisait un FSD sur l'autoroute. En juin, la National Highway Traffic Safety Administration a déclaré qu'elle avait élargi ses enquêtes sur Autopilot, y compris le rôle potentiel du logiciel dans plusieurs accidents de voiture mortels.
Des accidents liés au système Autopilot de Tesla
Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin 2021, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.
Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA plus d'un an avant dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.
Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.
La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars 2021. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril de l'année dernière au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier 2021, ont brûlé pendant quatre heures après.
Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai l'année dernière que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.
Un autre accident mortel survenu le 5 mai 2021 près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.
En juin 2021, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.
Source : projet de loi
Et vous ?
Que pensez-vous de ce projet de loi ?
Partager