Le système de « détection de dégradation » du FSD de Tesla échoue à détecter les défaillances ou à prévenir les conducteurs en cas de visibilité réduite
provoquant plusieurs accidents, dont un mortel
Le système de conduite entièrement autonome de Tesla (Full Self-Driving - FSD) de Tesla fait l'objet d'une enquête approfondie de la part des autorités. La NHTSA cherche à établir si le système échoue à détecter les défaillances ou à prévenir les conducteurs en cas de visibilité réduite. Cette enquête intervient après plusieurs accidents, dont un mortel. Elle augmente considérablement le risque d'un rappel, ce qui représente un danger majeur pour les ambitions de Tesla en matière de conduite autonome. Elon Musk a reconnu les lacunes du FSD, puis Tesla a décidé d'abandonner les Models S et X pour se consacrer à la construction de l'IA et de robots humanoïdes.
Le logiciel de conduite autonome Full Self-Driving de Tesla est entièrement basé sur des caméras. Les véhicules Tesla équipés du FSD disposent d'un système de « détection de dégradation » censé alerter les conducteurs afin qu'ils reprennent le contrôle lorsque les caméras du véhicule ne parviennent pas à voir la route suffisamment clairement pour utiliser le FSD en toute sécurité, par exemple en cas de mauvaises conditions météorologiques.
Toutefois, la détection ne fonctionnerait pas toujours. L'Agence nationale américaine de la sécurité routière (NHTSA) a fait passer son enquête sur le logiciel FSD de Tesla du stade de l'évaluation préliminaire à celui d'une analyse technique approfondie, qui concerne environ 3,2 millions de véhicules.
Cette intensification fait suite à des inquiétudes selon lesquelles le FSD de Tesla pourrait ne pas détecter les dangers ou alerter les conducteurs en cas de mauvaise visibilité due à des reflets, au brouillard, à la poussière ou à d'autres obstacles en suspension dans l'air. En effet, cette étape constitue généralement la dernière phase avant que l'agence ne décide d'imposer ou non un rappel, qui pourrait être l'un des plus importants de l'histoire de Tesla.
Accidents à l’origine de cette nouvelle investigation de la NTHSA
L'enquête portant sur le système de détection de dégradation est menée par le Bureau d'enquête sur les défauts (ODI) de la NTHSA. Selon un document déposé le 18 mars auprès de la NHTSA, « le système de détection de dégradation ne parvient pas à détecter et/ou à avertir le conducteur de manière appropriée dans des conditions de visibilité réduite, telles que l'éblouissement et la présence de particules en suspension dans l'air ».
La NHTSA a identifié neuf accidents potentiellement liés à l'incapacité du FSD à détecter une visibilité réduite des caméras, dont un accident mortel et deux accidents ayant causé des blessés, et en examine six autres. Selon le rapport du régulateur, dans plusieurs cas, le logiciel de Tesla a perdu de vue ou n'a jamais détecté les véhicules qui le précédaient, émettant des avertissements seulement quelques secondes avant l'impact, voire pas du tout.
Ces incidents se sont produits dans des conditions courantes telles que l'éblouissement par le soleil, le brouillard et la poussière, mettant en évidence les failles potentielles du passage de Tesla, en 2021, à un système reposant uniquement sur des caméras. Selon une étude publiée l'été dernier par Electric Vehicle Intelligence Report (EVIR), le système FSD de Tesla est très impopulaire sur le marché et rebute plus de consommateurs qu'il n'en attire.
C’est le résultat des pratiques commerciales trompeuses de l'entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble. Tesla a été contraint de supprimer le terme « Full Self-Driving » du nom de son système de conduite entièrement autonome en Chine, le FSD ayant déjà été taxé de publicité mensongère pour avoir laissé croire que les véhicules Tesla étaient entièrement autonomes.
Incertitudes concernant les mises à jour logicielles de Tesla
Tesla a commencé à développer une mise à jour pour le système de détection de dégradation en 2024 après un accident mortel survenu en 2023, mais le document déposé auprès de la NHTSA le 18 mars indique que l'ODI ne sait pas quels véhicules ont reçu cette mise à jour. Cependant, les experts de la NTHSA affirment que cette mise à jour aurait pu permettre d'éviter certains des incidents de sécurité sur lesquels l'ODI enquête actuellement.
Cette nouvelle enquête fait suite à une enquête similaire menée en 2024 concernant des accidents survenus par mauvaise visibilité alors que les conducteurs utilisaient le système FSD de Tesla. La dernière fois qu'une enquête de la NHTSA a débouché sur une analyse technique, cela a donné lieu à deux vagues de rappels et de mises à jour touchant la quasi-totalité des véhicules que le constructeur automobile avait vendus aux États-Unis jusqu'alors.
En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».Envoyé par Critique
Problèmes techniques des logiciels Autopilot et Full Self-Driving
Les logiciels Autopilot et Full Self-Driving de Tesla, longtemps présentés comme les piliers de l'avance de l'entreprise en matière de conduite autonome, sont aujourd’hui au cœur de nombreuses controverses. Plusieurs accidents, parfois mortels, impliquant des véhicules Tesla en mode Autopilot, ont donné lieu à des enquêtes aux États-Unis, notamment par la NHTSA et le ministère de la Justice (DOJ), dont certaines ont déclenché un rappel massif.
Les autorités cherchent à déterminer si Tesla a minimisé les limites de ses systèmes et surestimé leurs capacités dans ses communications publiques. Même les terminologies (« Autopilot » et « Full Self-Driving ») sont critiquées. Selon les experts, ces terminologies peuvent induire les conducteurs en erreur, en leur laissant croire que leur Tesla peut réellement se conduire toute seule, alors qu'il ne s'agit que d'un système d'assistance à la conduite.
En parallèle, le logiciel Full Self-Driving de Tesla, vendu à un prix élevé est toujours en phase bêta et fait l'objet de critiques pour son manque de fiabilité. De nombreux propriétaires de Tesla et des analyses indépendantes ont rapporté des comportements incohérents des Tesla en mode Full Self-Driving, comme des freinages fantômes, des hésitations aux intersections, ou des réactions inappropriées dans des environnements urbains complexes.
Ces dysfonctionnements techniques, combinés à la pression réglementaire, sapent la crédibilité de Tesla. À l'international, notamment en Europe, cette insécurité perçue contribue à détourner les consommateurs au profit de constructeurs proposant des systèmes plus transparents et mieux encadrés. Aux États-Unis, la NHTSA a ouvert plus de 40 enquêtes sur les accidents impliquant les systèmes de conduite assistée Autopilot et FSD de Tesla.
Conclusion
Le passage d'une évaluation préliminaire à une analyse technique est significatif. La NHTSA mène généralement une analyse technique dans un délai de 18 mois, et cette phase implique des tests techniques plus approfondis, des demandes d'informations supplémentaires et des comparaisons avec d'autres constructeurs. Historiquement, cela constitue la dernière étape de l'enquête avant que le régulateur ne classe une affaire ou ne demande un rappel.
Elon Musk a fait des promesses audacieuses concernant un système entièrement autonome dans les véhicules Tesla. Mais environ dix ans plus tard, Tesla reste bloqué sur une autonomie de niveau 2. Tesla a fini par modifier la signification de « conduite entièrement autonome », renonçant à sa promesse initiale d'offrir une autonomie sans supervision. Cela signifie que les clients ne pourront pas à l'avenir convertir leurs véhicules en « robotaxis ».
Source : NTHSA (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des défaillances techniques répétées du FSD de Tesla ?
Ces revers pourraient-ils conduire Elon Musk à abandonner complètement la conduite autonome ?
Selon vous, lconduite entièrement autonome est-elle une quête réaliste ? Pourquoi ?
Voir aussi
La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving
Le logiciel FSD de Tesla est très impopulaire et rebute davantage de consommateurs qu'il n'en attire, d'après une étude qui questionne sur la valeur réelle de la filière du véhicule automobile
Les véhicules Tesla avec le logiciel Full Self-Driving actif percutent à mort les motocyclistes par l'arrière, plus que toute autre voiture, d'après un rapport qui met en doute leur pleine autonomie







Quel est votre avis sur le sujet ?
Répondre avec citation
Partager