C'est marqué sur l'annonce : Californie
Discussion :
C'est marqué sur l'annonce : Californie
Tesla prend des mesures pour lancer un service de covoiturage qui pourrait concurrencer directement Uber, Lyft et Waymo, mais Elon Musk a l'intention de posséder et d'exploiter l'ensemble de la flotte
Tesla aurait l'intention de lancer son propre service de covoiturage en Californie, ce qui pourrait constituer une concurrence majeure pour les services de covoiturage Uber et Lyft. Toutefois, contrairement aux entreprises établies, Tesla a apparemment l'intention de posséder et d'exploiter l'ensemble de la flotte.
Le projet de Tesla de lancer un service de covoiturage en Californie s'appuie sur le développement continu de sa technologie de conduite autonome. En octobre 2024, Elon Musk a enfin dévoilé le Cybercab, le prototype de robotaxi de Tesla, après des années de fausses promesses et de délais non respectés. Le véhicule électrique est entièrement autonome, sans volant ni pédales, et s'appuie sur le système Full Self-Driving (FSD) de la société. Elon Musk a déclaré que le service de robotaxi de Tesla a été testé sur les routes de San Francisco pendant près d'un an. Le PDG a promis un FSD « non-supervisé » pour le Cybercab en 2025, même si l'approbation réglementaire reste un obstacle.
Bien que Tesla ait l'intention de lancer des services de taxis autonomes à travers les États-Unis à un moment donné, l'entreprise prévoit d'utiliser des véhicules conduits par des humains pour sa prochaine initiative, du moins dans un premier temps. Les documents soumis par Tesla aux autorités californiennes mentionneraient des informations sur les permis de conduire et la coordination des tests de dépistage de drogues, ce qui suggère que l'entreprise devra attendre un peu plus longtemps avant que son logiciel FSD non supervisé soit prêt pour les tâches de robotaxi.
Selon Bloomberg, le géant des véhicules électriques a demandé en 2024 à la California Public Utilities Commission (CPUC) un « permis de transporteur par affrètement ». S'il est accordé, ce permis permettrait à l'entreprise d'exploiter une flotte de voitures électriques avec des passagers payants à travers le Golden State.
Dans une déclaration à Reuters, la Commission a confirmé que Tesla avait demandé ce permis en novembre 2024. Un porte-parole de l'agence a expliqué que le permis de transporteur de charte-partie est une « condition préalable » à l'autorisation d'exploiter un service de covoiturage autonome, mais a ajouté que la demande actuelle ne permettrait pas à l'entreprise d'offrir un service commercial de robotaxi « à quelque titre que ce soit ».
Elon Musk a récemment annoncé que Tesla prévoyait de lancer le covoiturage sans chauffeur à Austin en juin 2025 et en Californie d'ici la fin de l'année, sans toutefois donner plus de détails.
En janvier 2025, Elon Musk a également déclaré aux investisseurs qu'il était convaincu que le logiciel de conduite autonome non supervisée serait lancé en Californie d'ici la fin de l'année, affirmant que le nouveau mode offrirait des niveaux de sécurité « nettement supérieurs » à ceux d'un conducteur humain moyen.
Toutefois, les ambitieux projets de covoiturage de Tesla pourraient se heurter à des difficultés, notamment en ce qui concerne son système de conduite autonome. Un test sur une distance de 1 600 kilomètres réalisé par le cabinet de recherche automobile indépendant AMCI a en effet révélé que le FSD de Tesla commet des erreurs occasionnelles dangereuses, obligeant les conducteurs à intervenir plus de 75 fois alors que le FSD était actif. Ce résultat soulève des inquiétudes quant à la fiabilité du système pour une flotte autonome.
Sources : Bloomberg, Reuters
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Tesla crédible ou pertinente ?
Voir aussi :
Tesla cherche à recruter une équipe pour contrôler à distance ses robotaxis, les voitures « entièrement autonomes » d'Elon Musk, comme d'autres robotaxis, s'appuieront sur des pilotes humains à distance
Dès l'an prochain, les propriétaires de Tesla pourront faire de leur voiture des taxis autonomes, selon Elon Musk
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Voies à contresens, freinages fantômes, excès de vitesse : la liste des ratés des robotaxis Tesla ne cesse de s’allonger,
et relance le débat sur la sécurité routière avec des véhicules autonomes
L'ambition de Tesla de révolutionner le transport avec des robotaxis autonomes se heurte à une réalité plus complexe que prévu. Si la promesse d'une conduite sûre et efficace sans intervention humaine captive l'imagination, une liste croissante d'incidents met en lumière les défis considérables que l'entreprise d'Elon Musk doit encore surmonter. À peine lancée, l’expérimentation accumule les faux pas techniques. Freinages soudains, erreurs de trajectoire, confusion dans les intersections… La liste des incidents s’allonge, et elle inquiète.
Après des années de promesses ambitieuses, Tesla a finalement déployé une flotte limitée de Model Y équipés de sa technologie de conduite autonome intégrale (FSD) à Austin. Ce programme pilote, payant et accessible sur invitation, vise à tester la capacité des véhicules à naviguer de manière autonome dans un environnement urbain. Elon Musk, PDG de Tesla, a salué ce déploiement comme une « culmination de dix ans de travail acharné », soulignant le développement interne des équipes logicielles et de conception de puces.
L’événement a été présenté comme une démonstration éclatante des capacités de l’intelligence artificielle embarquée dans les voitures Tesla. Les robotaxis, déployés dans certaines zones d’Austin, circulent sans chauffeur humain, entièrement pilotés par le système Full Self-Driving (FSD). La promesse est alléchante : réduire les accidents, fluidifier le trafic et révolutionner la mobilité urbaine.
Une révolution qui tourne court dès les premiers tours de roue
L’expérimentation des robotaxis Tesla ne devait concerner qu’un nombre réduit de véhicules, sur un périmètre contrôlé. Pourtant, ces conditions supposément sécurisées n’ont pas empêché une cascade de dysfonctionnements :
- Le passager appuie sur « pull over », le robotaxi s'arrête au milieu d'une intersection, le passager descend pendant que le Robotaxi bloque l'intersection pendant quelques instants.
Rendez-vous à 37:57- Le passager appuie sur « pull over » et la voiture s'arrête au milieu de la route. Le moniteur de sécurité doit appeler le service d'assistance aux passagers pour faire repartir la voiture.
Rendez-vous à 9:07- Conduite à contresens dans une rue à sens unique : plusieurs vidéos virales montrent un robotaxi Tesla s'engager à contresens dans une rue texane, mettant en danger les autres usagers.
- Franchissement illégal de lignes continues et confusion dans les carrefours : d’autres incidents rapportent des trajectoires erratiques à l’approche d’intersections, parfois avec franchissement de la ligne jaune et positionnement dans la mauvaise voie.
- Excès de vitesse dans des zones limitées : des utilisateurs ont filmé des robotaxis roulant bien au-dessus de la limite autorisée, ce qui pose la question du calibrage des algorithmes en contexte urbain réel.
- Freinages fantômes : hérités du mode Full Self-Driving classique, le véhicule s'arrête soudainement sans raison apparente. Le système de perception de Tesla, basé uniquement sur une caméra, a longtemps eu des problèmes avec le freinage fantôme, semblant mal interpréter les ombres, le marquage de la route ou d'autres facteurs environnementaux, ce qui déclenche le freinage d'urgence automatique du véhicule sans obstacle visible, ce qui pourrait provoquer des collisions en chaîne.
Ici par exemple, le robotaxi coupe la route à une autre voiture et freine pour éviter l'ombre d'un arbre.
Rendez-vous à 19:32
Ici, le robotaxi freine inopinément, faisant tomber le téléphone du passager
Rendez-vous à 10:19
Ici, le robotaxi freine inopinément, peut-être à cause de la présence de la police à proximité.
Enquête fédérale et doute institutionnel
La multiplication des vidéos amateurs documentant ces incidents n’a pas tardé à attirer l’attention des autorités. La NHTSA (National Highway Traffic Safety Administration) a ouvert une enquête officielle. En parallèle, des voix s’élèvent au Texas pour demander un moratoire sur le déploiement de ces véhicules, en attendant que leur fiabilité soit démontrée.
Le 17 octobre 2024, la National Highway Traffic Safety Administration (NHTSA) a ouvert une nouvelle enquête de sécurité concernant les systèmes de "Full Self-Driving" (FSD) de Tesla impliquant 2,4 millions de véhicules. Cette enquête fait suite à quatre accidents impliquant des véhicules Tesla utilisant le système FSD dans des conditions de visibilité réduite, telles que le brouillard, la lumière du soleil et la poussière en suspension. L'un de ces accidents a conduit à la mort d'un piéton en 2023. Les enquêteurs de la NHTSA vont examiner la capacité du système FSD à détecter et à réagir de manière appropriée à ces conditions de visibilité réduite. Ils chercheront également à comprendre les circonstances contribuant à ces accidents.
L'enquête vise à déterminer la capacité de la FSD à « détecter les conditions de visibilité réduite sur la route et à y répondre de manière appropriée ». Contrairement à presque tous les autres systèmes déployés sur la route, Tesla choisit de s'appuyer uniquement sur des caméras et ne dispose pas d'une configuration stéréoscopique, mais plutôt d'un capteur grand angle, d'un capteur principal et d'un capteur à angle étroit orienté vers l'avant. Par ailleurs, des centaines de milliers de Teslas plus anciennes disposent d'un matériel moins performant, mais sont toujours en mesure d'utiliser la FSD.
La demande d'informations de la NHTSA à Tesla concernant le programme de robotaxis d'Austin s'inscrit dans cette surveillance continue. Tesla a d'ailleurs classé ses réponses comme des informations commerciales confidentielles, ce qui a suffit pour alimenter le débat sur la transparence nécessaire dans le développement de ces technologies.
Le contraste avec Waymo est frappant. L’entreprise d’Alphabet opère avec prudence, multiplie les tests, fournit des rapports détaillés. Tesla, elle, continue de s’appuyer sur une philosophie : « il faut tester en situation réelle pour progresser ». Mais à quel prix ?
Elon Musk, entre visionnaire et kamikaze technologique
La stratégie d’Elon Musk repose sur un pari risqué : prendre de vitesse les régulateurs et la concurrence, quitte à essuyer les plâtres en public. Certains voix ont par exemple évoqué FSD (Full Self-Driving), le système de Tesla encore au stade bêta qui était déployé comme s’il était finalisé. D’autres ont pointé le décalage entre la technologie disponible et les promesses marketing. En vendant dès aujourd’hui des voitures avec des noms comme Full Self-Driving ou Autopilot, Tesla entretient une confusion entre ce que le système peut faire et ce que les clients pensent qu’il peut faire.
Les incidents d'Austin ravivent le débat sur l'approche technologique de Tesla. Contrairement à de nombreux concurrents comme Waymo (Google) ou Zoox (Amazon) qui intègrent des lidars (détection par laser) et des radars en plus des caméras, Tesla s'appuie presque exclusivement sur une architecture "vision-only". Musk défend cette approche en affirmant qu'elle est plus proche de la vision humaine et à terme plus évolutive (scalable). Cependant, pour les détracteurs, cette dépendance unique aux caméras pourrait limiter la capacité du système à percevoir son environnement de manière redondante et robuste, en particulier dans des conditions météorologiques difficiles ou de faible luminosité.
Ces incidents soulèvent des questions fondamentales sur la responsabilité en cas d'accident impliquant un véhicule autonome
Qui est responsable lorsque le système commet une erreur ? Le constructeur, le propriétaire du véhicule, ou l'algorithme lui-même ? Le cadre juridique et assurantiel doit évoluer pour prendre en compte cette nouvelle réalité et définir clairement les responsabilités.
Par ailleurs, la confiance du public est un facteur crucial pour l'adoption des robotaxis. Chaque incident médiatisé alimente les doutes et les craintes quant à la sécurité de ces véhicules sans conducteur. Tesla devra redoubler d'efforts en matière de transparence et de communication pour rassurer les utilisateurs potentiels et prouver la fiabilité de sa technologie.
En conclusion, si la vision de Tesla de déployer des robotaxis autonomes est séduisante, les incidents recensés rappellent que la route vers une autonomie totale est semée d'embûches. Les défis techniques, réglementaires et sociétaux sont considérables et nécessitent des avancées significatives en matière de sécurité et de fiabilité avant que cette promesse puisse devenir une réalité largement acceptée. La liste des mésaventures continue de s'allonger, soulignant l'importance d'une surveillance rigoureuse et d'une évaluation approfondie des risques avant de confier entièrement nos déplacements à des machines.
Des investisseurs séduits, malgré tout
Fait surprenant : alors que ces vidéos circulaient, l’action Tesla a bondi de plus de 10 %, portée par les annonces enthousiastes de Musk et l’effet de nouveauté. Selon Bloomberg, cette hausse témoigne de la confiance persistante des investisseurs dans le projet robotaxi, perçu comme un levier de croissance majeur pour les années à venir.
Mais certains analystes commencent à tempérer cet optimisme. Selon Dan Ives de Wedbush Securities : « Tesla ouvre une voie prometteuse, mais elle est parsemée d’obstacles techniques, éthiques et réglementaires. Le marché ne doit pas ignorer les réalités. »
Au-delà de la spéculation boursière, le principal défi est celui de la confiance des usagers. Si un véhicule sans conducteur peut se tromper de voie ou ignorer une limite de vitesse, comment convaincre un parent de faire monter son enfant à bord ? Pour l’instant, les vidéos de lancement ont suscité plus de craintes que d’adhésion dans l’opinion publique.
L’un des passants interrogés par CNBC résume bien le sentiment ambivalent : « C’est impressionnant, mais aussi effrayant. Je ne suis pas prêt à monter là-dedans. »
Source : vidéos dans le texte
Et vous ?
Faut-il suspendre les tests de robotaxis tant que la sécurité n’est pas prouvée de façon indépendante ?
Qui doit être juridiquement responsable en cas d’accident : Tesla, l’utilisateur passager ou l’IA elle-même ?
Les régulateurs sont-ils trop laxistes face à des géants technologiques comme Tesla ?
Le public est-il correctement informé des limites de la conduite autonome aujourd’hui ?
Le choix de Tesla de se passer de lidar et de radar est-il visionnaire ou irresponsable ?
Une IA entraînée "sur le terrain" doit-elle être confrontée à des vies humaines pour progresser ?
La conduite autonome est-elle technologiquement prête pour les environnements urbains complexes ?
L’approche “vision-only” de Tesla est-elle un raccourci dangereux comparé à l’approche multi-capteurs de Waymo ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
La justice américaine restera à jamais un mystère...
Si une entreprise en Europe était responsable ne serait-ce que d'un dixième des fautes de Tesla (dont les produits ont été directement responsables de plusieurs morts), la société serait fermée et ses fondateurs en prison.
Je crois que ce qui me choque le plus, c'est cette partie :
Plus proche de la vision humaine et donc mieux !
Donc si l'humain n'y vois pas à 20 mètres, la voiture non plus.
Mais ce n'est pas si grave après tout.
La réalité que je vois derrière ça, c'est que Musk veut faire du fric, mais ne surtout pas en dépenser pour renforcer la sécurité.
Il préfère risquer la vie des usagers plutôt que de perdre un centime.
Ce type est un assassin et sa place est en prison (ou à l'asile).
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Le PDG de Ford, Jim Farley, estime que l'approche de Waymo basée sur le LiDAR en matière de conduite autonome est plus fiable que celle de Tesla qui s'appuie uniquement sur des caméras
Jim Farley, PDG de Ford, exprime son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo est « plus logique », car elle offre une meilleure sécurité aux consommateurs Tesla vient de lancer ses premiers robotaxis à Austin, au Texas, et plusieurs incidents ont déjà été signalés. Les défaillances techniques de l'Autopilot sont un problème persistant.
Elon Musk, PDG de Tesla, tente de construire des véhicules à conduite autonome moins coûteux qui n'utilisent que des caméras vidéo et l'IA. Le milliardaire reste convaincu que ce pari finira par payer et incitera d'autres constructeurs automobiles à demander des licences pour la technologie de conduite autonome de Tesla. Mais sa vision est très peu populaire, les commentaires de Jim Farley étant le dernier exemple en date de la résistance de l'industrie.
L'approche de Tesla échoue très souvent aux tests. Lors du récent festival Aspen Ideas, Jim Farley a été invité par Walter Isaacson, biographe d'Elon Musk, à comparer les systèmes de conduite autonome actuels de Tesla et de Waymo, et à indiquer quelle approche lui semble la plus pertinente. Il a répondu :
« Nous avons des problèmes de confiance avec le robotaxi de Tesla. Pour nous, c'est Waymo. La combinaison du LiDAR, des caméras et du radar est beaucoup plus fiable que l'approche de Tesla qui repose uniquement sur des caméras ». Il a cité la confiance des consommateurs et la nécessité d'être vraiment prudent comme les raisons pour lesquelles Ford voit plus de potentiel dans les systèmes basés sur des capteurs comme ceux des véhicules Waymo.
Pour mémoire, Ford a investi environ 1 milliard de dollars dans Argo AI, une startup qui était spécialisée dans la conduite autonome en partenariat avec Volkswagen. Ford a cessé de financer la startup en 2022, et Argo AI a été dissoute, les deux constructeurs automobiles intégrant leur technologie. Après cet échec, Ford a déclaré qu'il s'associerait à des entreprises spécialisées dans la conduite autonome une fois que la technologie serait plus avancée.
Waymo, une filiale du groupe Alphabet, la société mère de Google, s'est d'abord concentrée sur le développement de ses propres véhicules pour le transport autonome, tandis que Tesla a tenté sans succès de transformer ses véhicules grand public en robotaxis autonomes. Mais Elon Musk a finalement changé de cap, Tesla ayant récemment lancé un programme pilote de robotaxis à Austin avec sa propre flotte de véhicules « autonomes ».
Jim Farley : Ford n'envisage pas d'adopter la technologie de Tesla
Jim Farley a aussi mis fin aux rumeurs selon lesquelles Ford serait en pourparlers avec Tesla pour obtenir une licence pour sa technologie de conduite entièrement autonome (Full Self-Driving ou FSD). En 2021, Elon Musk avait déclaré avoir eu des discussions préliminaires avec d'autres constructeurs automobiles au sujet de l'octroi de licences pour la technologie de conduite autonome de Tesla, mais ces discussions n'ont abouti à aucun accord à ce jour.
Jim Farley, PDG de Ford
Jim Farley a confirmé que Ford a discuté avec Tesla, mais il estime que Waymo offre une meilleure solution. « Lorsque vous avez une marque comme Ford, lorsqu'il y a une nouvelle technologie, vous devez être très prudent. Nous croyons vraiment que le LiDAR est essentiel à la mission ».
En 2023, Elon Musk a déclaré que Tesla est disposé à concéder sous licence l'Autopilot et le Full Sel-Driving à d'autres constructeurs automobiles. Peu après, il a déclaré que « les constructeurs ne croient pas que le Full Self-Driving de Tesla soit réel », mais il a affirmé qu'ils y croiraient bientôt. En 2024, il a déclaré que Tesla était en pourparlers avec « un grand constructeur au sujet de la concession sous licence de la technologie Full Self-Driving ».
Ford était perçu comme le constructeur automobile auquel Elon Musk faisait allusion, notamment en raison de ses efforts limités dans le domaine de la conduite autonome et du fait qu'il ait été le premier constructeur automobile à adopter le connecteur de recharge Tesla comme nouvelle norme nord-américaine. Lors de son allocution, le PDG de Ford a admis que Waymo et Tesla ont tous deux fait d'énormes progrès en matière de conduite autonome.
Mais Jim Farley considère que le LIDAR, utilisé par Waymo, mais pas par Tesla, comme un élément essentiel de la conduite autonome. Elon Musk estime que l'IA s'est tellement améliorée qu'il n'est plus nécessaire de recourir au Lidar et des technologies ultrasoniques encombrantes et coûteuses pour atteindre les plus hauts niveaux de conduite autonome. Toutefois, les performances de l'Autopiot et du Full Self-Driving tendent à démontrer le contraire.
Un test illustre les avantages du LiDAR par rapport aux caméras
Dans la vidéo du test, intitulée « Can You Fool A Self Driving Car ? », le YouTubeur Mark Rober oppose deux systèmes de véhicules autonomes différents, l'Autopilot de Tesla (qui utilise uniquement la vision par ordinateur) et une Lexus RX qui utilise des capteurs LiDAR, dans une série de tests. Le point culminant est une tentative d'arrêter une voiture en utilisant la même technique que Wile E. Coyote a essayé d'utiliser pour arrêter Road Runner, mais sans succès.
L'Autopilot réussit les deux premiers tests, consistant à s'arrêter pour un mannequin debout sur la route et à s'arrêter pour un mannequin qui se jette sur la route, mais il ne détecte pas le mannequin dans le brouillard et sous la pluie. Le LiDAR voit le mannequin de la taille d'un enfant, quelles que soient les conditions.
Dans le cadre du test « Wile E. Coyote », le mur s'étend sur toute la largeur de la route et se fond étonnamment bien dans le paysage qui l'entoure. Cependant, le mur ne peut pas tromper un conducteur humain, et il ne trompe pas non plus la Lexus RX équipée de capteurs LiDAR. Cette dernière détecte qu'il roule à grande vitesse vers un mur et s'arrête sans aucun problème. Mais la Model Y commence à rouler vers le mur à environ 15:00 dans la vidéo.
Le test s'est déroulé en plein jour, sans pluie ni brouillard, de sorte que la Tesla n'a pas vu qu'elle se dirigeait vers un mur. Toutefois, l'une des principales différences entre les deux technologies réside dans le fait que le LiDAR balaie la route et détecte le mur. Ce qui est imprimé sur le mur n'est pas pris en compte par l'ordinateur de la voiture. Les caméras de l'Autopilot, quant à elles, s'appuient sur ce qu'elles voient, et dans ce cas, il s'agit d'une route.
L'Autopilot de Tesla échoue à ce test. La Tesla Model Y de Mark Rober a laissé un trou d'une taille caricaturale dans le mur après que l'Autopilot l'a traversé à une vitesse d'environ 64 kilomètres par heure. Ce qui suggère que le LiDAR pourrait présenter certains avantages par rapport à la vision par ordinateur.
L'Autopilot ne détecte pas toujours les obstacles sur la route
Notons que la vidéo est en quelque sorte une publicité pour le LiDAR. Au début de la vidéo, Mark Rober utilise un capteur LiDAR portable pour cartographier le manège Space Mountain à Disney World et elle comporte une publicité pour un fabricant de LiDAR, de sorte que l'on sait d'emblée à quoi s'en tenir. Ainsi, bien que la vidéo puisse montrer les limites de la vision par ordinateur de l'Autopilot, de nombreux critiques appellent à des tests plus approfondis.
Seules deux voitures ont été testées ici, mais des experts estiment que de nombreux autres systèmes ADAS basés sur des caméras auraient également échoué ; l'erreur n'est en aucun cas spécifique à Tesla. Il est vrai que les chances de rencontrer un mur ressemblant presque exactement à une route pendant vos trajets quotidiens sont assez faibles, mais le test permet de mettre en évidence les capacités (et surtout les lacunes) de chaque technologie.
Par ailleurs, le test « Wile E. Coyote » montre que l'Autopilot ne rend pas une voiture autonome (en lui permettant de se conduire toute seule), loin de là. Il s'agit d'un système de niveau 2, ce qui signifie que le conducteur doit garder constamment les deux yeux sur la route et les deux mains sur le volant.
Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », mais ce n'est pas la première fois que des vidéos mettent en évidence les limites des aides électroniques à la conduite basées sur des caméras. En 2022, une Tesla Model Y n'a pas détecté un mannequin qui se tenait au milieu d'une route de nuit.
Tesla a renoncé à la technologie LiDAR au profit des caméras
Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. L'argumentaire varie selon les personnes interrogées et le moment, mais il se résume généralement au fait que le LiDAR coûte trop cher, qu'il nécessite plus de traitement de données et qu'il sert finalement de béquille pour ralentir le développement de la vision par ordinateur. Elon Musk est allé jusqu'à déclarer que le LiDAR est une « aventure insensée ».
C'est peut-être vrai, mais il ne traverse pas non plus les murs, alors il faut peser le pour et le contre. Il est difficile d'imaginer que l'on puisse laisser sa voiture percuter un enfant alors qu'elle aurait pu l'éviter grâce à d'autres technologies et de se dire : « au moins, cela n'a pas ralenti le développement d'une technologie qui, à terme, pourrait ne pas aboutir à ce qui vient de se produire ». Quoi qu'il en soit, la vidéo du test est intéressante à regarder.
Lorsque Tesla a annoncé sa décision d'abandonner le LiDAR en 2021, il a été critiqué. « Il n'y aura jamais une conduite autonome sûre avec la seule vision. Il est évident que même nous, les humains, utilisons beaucoup plus de sens qui ne sont pas facilement remplaçables techniquement. La peur et l'adrénaline par exemple, ou l'audio. Mais la vision seule est une approche qui ne sera jamais sûre », a réagi un utilisateur de Twitter en réponse à l'annonce.
Les caméras peuvent offrir des résolutions plus élevées et un coût de production plus faible. Toutefois, elles ont des limites importantes. Elles sont moins efficaces dans de mauvaises conditions météorologiques et leur précision est moindre la nuit. En revanche, les capteurs radar sont plus fiables, car ils offrent une meilleure portée et une plus grande précision en matière de distance, quelles que soient les conditions météorologiques ou de luminosité.
Les capteurs radar ont cependant une résolution plus faible, ce qui signifie qu'ils ont besoin d'une technologie leur permettant de fonctionner à des fréquences plus élevées, ce qui est coûteux. Selon certains analystes, la réduction des coûts est probablement un autre facteur qui a motivé la décision de Tesla.
Source : Jim Farley, PDG de Ford
Et vous ?
Quel est votre avis sur le sujet ?
Quelle comparaison faites-vous entre l'approche de Waymo et celle de Tesla en matière de conduite autonome ?
Selon vous, le LiDAR est-il indispensable pour atteindre les plus hauts niveaux de la conduite entièrement autonome ? Pourquoi ?
Elon Musk considère le LiDAR est une « aventure insensée ». Qu'en pensez-vous ? Que pensez-vous des performances de l'Autopilot et du Full Sel-Driving de Tesla ?
Voir aussi
Elon Musk annonce un lancement pilote « réussi » pour les robotaxis de Tesla, mais des vidéos alarmantes montrent des dérapages : véhicules qui roulent à contre-sens, dépassent la limite de vitesse
Le logiciel Autopilot de Tesla échoue à un test visant à évaluer l'efficacité de sa vision basée sur des caméras face à des obstacles sur la route, tandis que le cours de son action et ses ventes dégringolent
Voies à contresens, freinages fantômes, excès de vitesse : la liste des ratés des robotaxis Tesla ne cesse de s'allonger et relance le débat sur la sécurité routière avec des véhicules autonomes
Un robotaxi Tesla a inexplicablement percuté une voiture en stationnement, le logiciel de conduite autonome FSD de Tesla présente des lacunes car il ne repose que sur les caméras et l'IA
L'un des robotaxis entièrement autonomes de Tesla a frôlé une voiture en stationnement après avoir effectué un trajet à Austin, au Texas. En dehors de cet incident impliquant une autre voiture, d'autres invités ont fait part de leurs expériences inattendues avec le service de robotaxi de Tesla. Il est important de noter que le logiciel de conduite autonome (FSD) de Tesla repose principalement sur des caméras et l'intelligence artificielle. Contrairement à certains de ses concurrents, comme Waymo, qui utilise une combinaison de caméras, de lidars et de radars pour son service de robotaxi.
Après des années de promesses ambitieuses, Tesla a finalement déployé une flotte limitée de Model Y équipés de sa technologie de conduite autonome intégrale (FSD) à Austin. Ce programme pilote, payant et accessible sur invitation, vise à tester la capacité des véhicules à naviguer de manière autonome dans un environnement urbain.
Cependant, l'ambition de Tesla de révolutionner le transport avec des robotaxis autonomes se heurte à une réalité plus complexe que prévu. Si la promesse d'une conduite sûre et efficace sans intervention humaine captive l'imagination, une liste croissante d'incidents met en lumière les défis considérables que l'entreprise d'Elon Musk doit encore surmonter. À peine lancée, l’expérimentation accumule les faux pas techniques. Freinages soudains, erreurs de trajectoire, confusion dans les intersections… La liste des incidents s’allonge, et elle inquiète.
Récemment, l'un des robotaxis entièrement autonomes de Tesla a frôlé une voiture en stationnement après avoir effectué un trajet à Austin, au Texas. Dans une vidéo enregistrée par le YouTubeur DirtyTesla, on voit un Model Y autopiloté avec le FSD tourner et accélérer vers une Toyota, entrant légèrement en contact avec son pneu. Comme le montre la vidéo, la Model Y a déjà déposé son passager, mais a ensuite eu du mal à sortir de l'allée sombre.
Selon DirtyTesla, il n'y a pas eu de blessés graves ni de dégâts, et le moniteur de sécurité du robotaxi a fini par s'installer sur le siège du conducteur et a démarré. Bien que la collision latérale ait été mineure, on ne sait pas exactement ce qui a poussé la Tesla à foncer dans la voiture garée au lieu de repartir normalement après avoir terminé le trajet.
En dehors de cet incident impliquant une autre voiture, d'autres invités ont fait part de leurs expériences inattendues avec le service de robotaxi de Tesla. Jusqu'à présent, les rapports ont révélé que le service de robotaxi s'est arrêté brusquement pour des feux d'urgence qui n'étaient pas sur la route et rouler brièvement du mauvais côté d'une double ligne jaune. Pour rappel, le service de robotaxi de Tesla a été lancé à Austin il y a tout juste deux semaines, avec une petite flotte.
Les détracteurs du Full Self-Driving (FSD) de Tesla se multiplient et continuent à sensibiliser les consommateurs sur les dangers du logiciel de conduite autonome de Tesla. Jason Hughes, un pirate informatique bien connu dans le monde Tesla, a par le passé qualifié le FSD de Tesla d'"escroquerie flagrante à l'argent". Le pirate a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.
Il est important de noter que le logiciel de conduite autonome (FSD) de Tesla repose principalement sur des caméras et l'intelligence artificielle. Contrairement à certains de ses concurrents, comme Waymo, qui utilise une combinaison de caméras, de lidars et de radars pour son service de robotaxi. Cependant, Waymo n'est pas exempt d'incidents, dont l'un a conduit à un rappel volontaire de sa flotte à Phoenix, en Arizona, à la suite d'une collision avec un poteau téléphonique l'année dernière. Plus récemment, Waymo a procédé à un autre rappel pour ses robotaxis, qui auraient eu tendance à heurter des barrières routières plus difficiles à voir.
Malgré ces incidents, Waymo a affirmé avoir atteint 10 millions de trajets en robotaxi en mai 2025. Il s'agit d'une progression notable alors que Waymo a annoncé en avril dernier qu'elle effectuait plus de 250 000 trajets hebdomadaires payants en robotaxi dans quatre villes américaines. Selon Waymo, les 10 millions de trajets "sont tous des trajets payants, et ils représentent des gens qui intègrent vraiment Waymo Driver dans leur vie quotidienne". Le chiffre comprend les trajets effectués à Austin, Los Angeles, San Francisco et dans la région de Phoenix.
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
Le PDG de Ford, Jim Farley, estime que l'approche de Waymo basée sur le LiDAR en matière de conduite autonome est plus fiable que celle de Tesla qui s'appuie uniquement sur des caméras
Elon Musk annonce un lancement pilote « réussi » pour les robotaxis de Tesla, mais des vidéos alarmantes montrent des dérapages : véhicules qui roulent à contre-sens, dépassent la limite de vitesse
Les trajets en robotaxis Waymo coûtent plus cher que ceux proposés par Uber ou Lyft, mais les gens sont prêts à payer plus cher pour la nouveauté, le confort et l'attrait de voyager seuls
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
"on ne sait pas exactement ce qui a poussé la Tesla à foncer dans la voiture garée au lieu de repartir normalement après avoir terminé le trajet"
Si le conducteur avait été humain, et si la police avait vu cela, on aurait probablement vérifié la validité de son permis de conduire, et si le conducteur était sous influence (alcool, drogues...).
Est-ce que ce robot a passé son permis de conduire ?Que risque-t-il comme sanctions s'il roule sans permis de conduire ?
L'ancien PDG de Waymo rejette le robotaxi de Tesla : « J'attends toujours », l'utilisation par Tesla de conducteurs humains de secours signifie que le véhicule n'offre pas une véritable autonomie
L'ancien PDG de Waymo a rejeté le robotaxi de Tesla, affirmant que l'utilisation par Tesla de conducteurs humains de secours signifie que le véhicule n'offre pas une véritable autonomie. Ces commentaires interviennent alors que les robotaxis Tesla arrivent à San Francisco. « Ce n'est (de toute évidence) pas un robotaxi s'il y a un employé à l'intérieur de la voiture. » a déclaré John Krafcik
En novembre 2024, un rapport a révélé que Tesla recherchait un ingénieur logiciel C++ qui l'aiderait à construire « un système de téléopération qui permettra à des opérateurs humains d'accéder et de contrôler à distance les futurs robotaxis et robots humanoïdes de l'entreprise ». Un rapport qui suggérait que Tesla prépare le terrain pour tester le Cybercab et le robot Optimus dans le monde réel. Toutefois, cette offre d'emploi s'écartait de la rhétorique précédente de Tesla sur l'autosuffisance, selon laquelle l'entreprise pouvait atteindre l'autonomie totale grâce à l'entraînement par réseau neuronal avancé et à la perception par caméra, sans dépendre de l'intervention humaine.
En juin 2025, près des années de promesses ambitieuses, Tesla a finalement déployé une flotte limitée de Model Y équipés de sa technologie de conduite autonome intégrale (FSD) à Austin. Ce programme pilote, payant et accessible sur invitation, vise à tester la capacité des véhicules à naviguer de manière autonome dans un environnement urbain. Elon Musk, PDG de Tesla, a salué ce déploiement comme une « culmination de dix ans de travail acharné », soulignant le développement interne des équipes logicielles et de conception de puces.
Si la promesse d'une conduite sûre et efficace sans intervention humaine captive l'imagination, une liste croissante d'incidents met en lumière les défis considérables que l'entreprise d'Elon Musk doit encore surmonter. À peine lancée, l’expérimentation accumule les faux pas techniques. Freinages soudains, erreurs de trajectoire, confusion dans les intersections… La liste des incidents s’allonge, et elle inquiète.
Récemment, l'ancien PDG de Waymo a rejeté le robotaxi de Tesla, affirmant que l'utilisation par Tesla de conducteurs humains de secours signifie que le véhicule n'offre pas une véritable autonomie. Ces commentaires interviennent alors que les robotaxis Tesla arrivent à San Francisco. Les voitures autonomes sont encore loin d'être la technologie courante que beaucoup prédisaient il y a dix ans, mais un homme qui a fait plus que quiconque pour les amener là où elles en sont aujourd'hui n'est pas impressionné par le service de robotaxis de Tesla, qui vient d'arriver dans le fief de Waymo, dans la baie de San Francisco.
En tant que PDG de Waymo, John Krafcik a supervisé les accords commerciaux et les négociations avec les gouvernements locaux qui ont permis à la filiale de Google de passer du stade de la validation du concept à celui d'un service de covoiturage commercial à petite échelle. Interrogé par Business Insider sur son opinion concernant les efforts de Tesla, Krafcik a déclaré que le constructeur automobile n'était pas à la hauteur. « S'ils cherchaient à recréer l'expérience Uber actuelle dans la région de la baie de San Francisco, ils ont parfaitement réussi », a déclaré Krafcik, qui a dirigé Waymo de 2015 à 2021 après avoir travaillé chez Hyundai, dans un e-mail adressé à Business Insider.
Après presque une décennie de promesses de covoiturage autonome, Tesla a lancé son service Robotaxi à Austin, au Texas, en juin, puis dans la région de la baie de San Francisco en juillet. Pour l'instant, un conducteur humain est assis au volant en tant que secours ; Tesla n'a pas demandé les autorisations californiennes qui lui permettraient de tester et d'exploiter des voitures véritablement sans conducteur, comme le fait actuellement Waymo. À Austin, où les règles sont moins strictes, une personne assise sur le siège passager avant sert de moniteur de sécurité. La présence de renforts humains signifie que Tesla n'est pas dans la même catégorie que Waymo, selon Krafcik.
« Faites-moi savoir quand Tesla lancera un robotaxi, j'attends toujours », a déclaré l'ancien PDG de Waymo dans son e-mail. « Ce n'est (de toute évidence) pas un robotaxi s'il y a un employé à l'intérieur de la voiture. » Le service de Tesla reste accessible uniquement sur invitation, mais le PDG Elon Musk a déclaré le 10 août qu'il serait « en libre accès » dès le mois prochain. Ne vous attendez pas à ce que Krafick accepte l'offre de Musk ; il a déclaré à Business Insider qu'il n'avait aucun intérêt à essayer le service Tesla Robotaxi.
Et les différents rapports sur le robotaxi de Tesla pourrait lui donner raison. Un exemple, en juillet, l'un des robotaxis entièrement autonomes de Tesla a frôlé une voiture en stationnement après avoir effectué un trajet à Austin, au Texas. En dehors de cet incident impliquant une autre voiture, d'autres invités ont fait part de leurs expériences inattendues avec le service de robotaxi de Tesla. Il est important de noter que le logiciel de conduite autonome (FSD) de Tesla repose principalement sur des caméras et l'intelligence artificielle. Contrairement à certains de ses concurrents, comme Waymo, qui utilise une combinaison de caméras, de lidars et de radars pour son service de robotaxi.
Source : John Krafcik pour Business Insider
Et vous ?
Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Elon Musk annonce un lancement pilote « réussi » pour les robotaxis de Tesla, mais des vidéos alarmantes montrent des dérapages : véhicules qui roulent à contre-sens, dépassent la limite de vitesse
Waymo déclare avoir atteint 10 millions de trajets en robotaxi, soit le double en cinq mois, la société détenue par Alphabet ayant précédemment déclaré effectuer plus de 250 000 trajets payants par semaine
Tesla a dissimulé des données, menti et induit la police en erreur afin d'échapper à toute responsabilité dans un accident mortel impliquant son logiciel Autopilot. Il a été reconnu partiellement responsable
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Les essais des robotaxis de Tesla à Austin ont enregistré trois accidents dès le premier jour, un bilan bien pire que celui de Waymo, avec des collisions, des problèmes logiciels et des infractions routières
La percée de Tesla dans le domaine des véhicules autonomes a subi un revers, sa flotte de robotaxis testée à Austin ayant enregistré trois accidents dès le premier jour. Ces incidents, causés par des infractions au code de la route et des dysfonctionnements logiciels ont entraîné des collisions, et contrastent fortement avec les résultats bien plus sûrs de Waymo. Les régulateurs et les analystes du secteur ont exprimé leurs inquiétudes concernant les informations de sécurité expurgées fournies par Tesla, ainsi que concernant l'état de préparation de sa technologie de conduite Full Self-Driving (FSD).
Ces performances contrastent fortement avec les ambitions initiales de Tesla, qui visait à révolutionner le transport avec des robotaxis autonomes. Le projet pilote d'Austin, lancé en juin 2025 avec une flotte restreinte de véhicules Model Y équipés du système FSD, a été présenté comme le fruit d'une décennie de travail. Cependant, ce programme a rapidement révélé les défauts techniques persistants des robotaxis Tesla (excès de vitesse, freinages fantômes, voies à contresens et confusion aux intersections), mettant en lumière les défis considérables que l'entreprise d'Elon Musk doit encore surmonter.
Dans le monde en pleine évolution des véhicules autonomes, l'ambitieuse percée de Tesla Inc. dans le domaine des robotaxis a ainsi rencontré un obstacle de taille. Des rapports récents ont révélé que la flotte d'essai de l'entreprise à Austin, au Texas, a connu trois accidents au cours des 7 000 premiers miles (environ 11 000 km) parcourus , une statistique qui a suscité l'étonnement des régulateurs, des investisseurs et des observateurs du secteur. Ces performances contrastent fortement avec celles d'acteurs établis tels que Waymo, filiale d'Alphabet Inc., qui affiche un bilan de sécurité bien supérieur sur des millions de kilomètres parcourus.
Les détails qui ressortent de ces incidents brossent un tableau inquiétant. Le taux d'accidents de Tesla dans cette phase initiale est bien pire que celui de Waymo, des accidents s'étant produits dès le premier jour des essais. L'un des accidents a impliqué une collision avec un objet statique, entraînant des blessures légères et le remorquage du véhicule, tandis que d'autres ont été causés par des infractions au code de la route et des dysfonctionnements logiciels qui ont conduit à des manœuvres dangereuses.
Examen minutieux des indicateurs de sécurité et de la transparence
L'approche de Tesla en matière de signalement de ces incidents a également été critiquée. L'entreprise a transmis des informations détaillées à la National Highway Traffic Safety Administration (NHTSA), mais des informations clés ont été caviardées, invoquant des raisons de concurrence. Ce manque de transparence a frustré les détracteurs, comme le souligne certains rapports qui mettent en avant les tentatives de Tesla de dissimuler des détails malgré les implications en matière de sécurité publique. À l'inverse, des concurrents tels que Waymo fournissent des informations plus détaillées, ce qui permet un meilleur benchmarking du secteur.
D'autres informations suggèrent qu'un quatrième accident n'aurait pas été signalé, ce qui exacerbe les inquiétudes quant à l'état de préparation du logiciel Full Self-Driving (FSD) de Tesla pour les opérations non supervisées. Les spécialistes du secteur soulignent que, tandis que Tesla s'appuie fortement sur des systèmes basés sur la vision et l'apprentissage automatique, ses concurrents intègrent des lidars et des radars pour améliorer la perception, ce qui pourrait expliquer la disparité des résultats en matière de sécurité.
Analyse comparative avec les acteurs du secteur
Pour replacer les performances de Tesla dans leur contexte, Waymo a parcouru des milliards de kilomètres avec un taux d'accidents nettement inférieur, impliquant souvent des accrochages mineurs plutôt que des défaillances critiques. Plusieurs rapports soulignent que le passage d'une petite flotte d'essai à un déploiement à grande échelle reste un obstacle monumental. Les incidents de Tesla comprenaient des problèmes tels que des freinages fantômes et une utilisation inappropriée des voies, des problèmes qui affectent ses versions bêta FSD depuis des années.
L'opinion publique, telle qu'elle ressort des publications sur X (anciennement Twitter), amplifie ces inquiétudes. Les utilisateurs ont partagé des anecdotes sur les dysfonctionnements des robotaxis, tels que des véhicules bloqués dans la circulation ou entrant en collision avec des voitures garées, alimentant les débats sur la question de savoir si la technologie de Tesla progresse ou régresse. Un message a présenté une comparaison des accidents survenus depuis le début de l'année, soulignant l'absence totale d'accidents signalés par Tesla au début de l'année par rapport aux chiffres de ses concurrents, bien que les événements récents aient radicalement changé la donne.
Implications pour la réglementation et la position sur le marché
Les conséquences de ces accidents pourraient entraîner un renforcement de la surveillance réglementaire. La NHTSA a déjà intensifié son contrôle sur les programmes de véhicules autonomes, et les rapports expurgés de Tesla pourraient inciter à exiger la divulgation obligatoire de toutes les informations. Les experts avertissent que la promesse d'Elon Musk d'éliminer les conducteurs de sécurité d'ici la fin de l'année pourrait être prématurée au vu des données.
Pour les investisseurs, cette évolution souligne les risques liés à la valorisation de Tesla, qui repose sur des avancées technologiques en matière d'autonomie. Des enquêtes montrent une érosion de la confiance des consommateurs dans la sécurité de la marque, Toyota dépassant Tesla en termes de perception positive malgré une gamme de véhicules électriques moins agressive. Alors que l'industrie s'oriente vers l'autonomie totale, les premiers faux pas de Tesla à Austin servent d'avertissement : l'innovation ne doit pas prendre le pas sur les protocoles de sécurité.
Perspectives d'avenir : défis et pistes possibles
Les experts affirment que Tesla pourrait atténuer ces problèmes grâce à des itérations logicielles et à des tests approfondis. Cependant, la voie vers des millions de robotaxis, telle que l'envisage Elon Musk, exige non seulement un perfectionnement technologique, mais aussi le rétablissement de la confiance du public. Les reportages sur les accidents mettent en évidence les erreurs de conduite persistantes lors des essais au Texas, renforçant ainsi la nécessité d'une validation rigoureuse.
En fin de compte, si l'initiative de Tesla en matière de robotaxis représente un pari audacieux sur l'avenir de la mobilité, ces premiers accidents soulignent les dangers d'un déploiement précipité. Les acteurs du secteur suivront de près les efforts déployés par l'entreprise pour surmonter les obstacles réglementaires et perfectionner ses systèmes, qui pourraient bien redessiner la dynamique concurrentielle dans le domaine des transports autonomes pour les années à venir.
Alors que la liste des ratés des robotaxis Tesla ne cesse de s'allonger, ces revers ravivent les critiques de longue date concernant la définition du « Full Self-Driving » par l'entreprise. Depuis 2016, Elon Musk promet chaque année que ses voitures atteindront une autonomie sans supervision, une promesse qui a permis à l'entreprise de vendre des packs FSD pouvant atteindre 15 000 dollars. Près d'une décennie plus tard, les échecs persistants ont contraint Tesla à modifier la signification du terme « Full Self-Driving » et à renoncer à sa promesse d'offrir une conduite autonome sans surveillance. À la différence de Waymo, qui intègre des radars et des LiDAR, Tesla continue de s'appuyer uniquement sur des caméras, une stratégie qui, selon le PDG de Ford, limite sa crédibilité dans la course à la véritable technologie de conduite autonome.
Source : Rapports d'accidents de Tesla
Et vous ?
Quelle lecture faites-vous de cette situation ?
Trouvez-vous que l'approche de Tesla en matière de signalement de ses incidents est cohérente ou pertinente ?
Pensez-vous que la confiance du public puisse être rapidement rétablie après de tels incidents, ou faudra-t-il des années pour prouver la fiabilité des robotaxis de Tesla ?
Voir aussi :
Tesla veut tourner la page de l'automobile traditionnelle : Elon Musk parie tout sur le robotaxi malgré une longue liste de ratés et les scandales liés à Autopilot et Full Self-Driving
Elon Musk annonce un lancement pilote « réussi » pour les robotaxis de Tesla, mais des vidéos alarmantes montrent des dérapages : véhicules qui roulent à contre-sens, dépassent la limite de vitesse
L'ancien PDG de Waymo rejette le robotaxi de Tesla : « J'attends toujours », l'utilisation par Tesla de conducteurs humains de secours signifie que le véhicule n'offre pas une véritable autonomie
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Les robotaxis autonomes de Tesla d'Elon Musk ont un taux d'accidents neuf fois plus élevé que les conducteurs humains
et ce malgré la présence d'un moniteur de sécurité dans chaque voiture
Les données relatives aux accidents impliquant les robotaxis de Tesla soulèvent de sérieuses préoccupations en matière de sécurité. Elles indiquent que les robotaxis du constructeur automobile ont un taux d'accidents neuf fois supérieur à celui des conducteurs humains moyens. Ces performances contrastent fortement avec celles d'autres opérateurs de véhicules autonomes comme Waymo, qui ont déclaré des taux de collision inférieurs à ceux enregistrés par les conducteurs humains. Les essais des robotaxis de Tesla ont commencé il y a quelques mois seulement, mais le bilan est catastrophique : collisions, problèmes logiciels, infractions routières, etc.
La vision longtemps promise par Tesla en matière de robotaxis est enfin devenue réalité sur les routes publiques. Tesla a déployé l'année dernière une flotte de robotaxis à Austin, au Texas, afin de les tester et de récolter des données visant à améliorer le programme. Cependant les premières données suggèrent que le déploiement est loin d'être sans heurts. La technologie de conduite autonome Full Self-Driving (FSD) de Tesla soulève des inquiétudes.
Les rapports d'accidents récemment publiés par la National Highway Traffic Safety Administration (NHTSA) des États-Unis, combinés aux données fournies par Tesla sur le kilométrage parcouru par ses robotaxis, brossent un tableau inquiétant des performances du logiciel Full Self-Driving de l'entreprise. Selon les rapports d'accidents de la NHTSA, Tesla a signalé 9 accidents impliquant sa flotte de robotaxis autonomes entre juillet et novembre 2025 :
- novembre 2025 : collision lors d'un virage à droite ;
- octobre 2025 : incident à 18 mph (environ 28,96 km/h) ;
- septembre 2025 : collision avec un animal à 27 mph (environ 43,45 km/h) ;
- septembre 2025 : collision avec un cycliste ;
- septembre 2025 : collision arrière lors d'une marche arrière (à environ 9,65 km/h) ;
- septembre 2025 : collision avec un objet fixe dans un parking ;
- juillet 2025 : collision avec un SUV dans une zone de travaux ;
- juillet 2025 : collision avec un objet fixe, causant des blessures légères (à environ 14,48 km/h)
- juillet 2025 : collision lors d'un virage à droite avec un SUV.
Selon le rapport financier du quatrième trimestre 2025 de Tesla, sa flotte de robotaxis autonome avait parcouru environ 500 000 miles (environ 804672 kilomètres) à Austin en novembre 2025. Cela correspond à environ un accident tous les 55 000 miles (environ 88513,92 km). À titre de comparaison, selon les données de la NHTSA, les conducteurs humains aux États-Unis ont en moyenne environ un accident signalé à la police tous les 500 000 miles.
Cela signifie que les robotaxis de Tesla ont un taux d'accidents 9 fois supérieur à celui des conducteurs humains moyens. Toutefois, ce chiffre n'inclut pas les incidents non signalés à la police. Si l'on ajoute ceux-ci, ou plutôt une estimation de ceux-ci, les humains sont plus proches de 200 000 miles (environ 321868,8 kilomètres) entre deux accidents, ce qui reste bien meilleur que les robotaxis déployés par l'entreprise d'Elon Musk sur les routes publiques.
Tesla reste moins performant même avec des moniteurs de sécurité
Ce qui rend les chiffres de Tesla particulièrement accablants, c'est que chaque robotaxi de la société fonctionne actuellement avec un moniteur de sécurité à l'intérieur du véhicule. Il ne s'agit pas de voitures entièrement autonomes. Un humain formé est présent, surveille la route et est prêt à intervenir. Il est important de noter que les données ne précisent pas combien d'accidents ont été évités grâce à l'intervention des moniteurs de sécurité de Tesla.
Selon les analystes, cette omission est importante. Tout déploiement futur sans moniteurs de sécurité entraînerait presque aussitôt une détérioration significative des performances dans le monde réel. (Sur les neuf incidents signalés par le constructeur automobile, seuls deux se sont produits au cours des deux derniers mois de la période considérée, ce qui pourrait être interprété comme un signe de progrès. Ce n'est pas beaucoup, mais c'est déjà ça.)
Par contre, Waymo exploite une flotte entièrement sans conducteur, sans moniteur de sécurité ni assistance humaine, et affiche des chiffres de sécurité nettement meilleurs. Waymo a parcouru plus de 125 millions de kilomètres en mode autonome et maintient un taux d'accidents bien inférieur à la moyenne humaine.
Tesla accusé de manquer de transparence dans ses rapports
Plus importante encore que les chiffres, c'est le manque de transparence du constructeur automobile. Chaque récit d'accident impliquant un robotaxi Tesla dans la base de données de la NHTSA est expurgé avec la même phrase : « [EXPURGÉ, PEUT CONTENIR DES INFORMATIONS COMMERCIALES CONFIDENTIELLES] ». Chaque récit d'accident impliquant un robotaxi de Tesla dans la base de données de la NHTSA est rédigé avec la même phrase :
- nous savons qu'un robotaxi Tesla a percuté un cycliste. Nous ne savons pas ce qui s'est passé ;
- nous savons qu'un accident a causé des blessures légères. Nous ne savons pas ce qui s'est passé ;
- nous savons qu'un robotaxi a percuté un animal à grande vitesse. Nous ne savons pas ce qui s'est passé.
En revanche, Waymo et d'autres opérateurs de véhicules autonomes publient des descriptions détaillées des incidents. Dans un exemple, un véhicule Waymo a été percuté par l'arrière alors qu'il était à l'arrêt pour laisser passer un piéton, ce qui montre clairement que le système autonome s'est comporté correctement.
Pourquoi la transparence est plus importante que la perfection
Aucun système autonome ne sera jamais parfait, et l'on ne s'attend pas à ce qu'il n'y ait aucun accident. Ce que l'on attend, c'est de la transparence. La transparence permet aux régulateurs, aux chercheurs et au public de comprendre ce qui n'a pas fonctionné et si une entreprise tire réellement les leçons de ses erreurs. Un incident récent impliquant Waymo à Santa Monica illustre cela. Un enfant a couru sur la route depuis l'arrière d'un SUV garé.
Le véhicule Waymo n'a pas pu éviter complètement l'impact, mais a réduit sa vitesse de 17 mph (environ 27,36 km/h) à moins de 6 mph (environ 9,65 km/h), ce qui a considérablement réduit le risque de blessures pour la victime. L'entreprise a rendu publics les détails de l'incident et a même montré des preuves suggérant qu'un conducteur humain aurait pu heurter l'enfant à une vitesse plus élevée. Tesla n'offre rien de tout cela pour le moment.
L'ouverture dont Waymo fait preuve en ce qui concerne les accidents inspire confiance. L'approche de Tesla fait exactement le contraire. Il est clair que Tesla n'est pas responsable de certains de ces accidents, mais le fait que nous ne le sachions pas est entièrement dû au secret entretenu par Tesla.
Les défaillances techniques des logiciels Autopilot et Full Self-Driving
Les systèmes Autopilot et Full Self-Driving de Tesla, longtemps présentés comme les piliers de son avance en matière de conduite autonome, sont aujourd’hui au cœur de nombreuses controverses. Plusieurs accidents, parfois mortels, impliquant des véhicules Tesla en mode Autopilot, ont déclenché des enquêtes fédérales aux États-Unis, notamment par la NHTSA (National Highway Traffic Safety Administration) et le département de la Justice (DOJ).
Ces autorités cherchent à déterminer si Tesla a minimisé les limites de ses systèmes et surestimé leurs capacités dans ses communications publiques. Même les terminologies (« Autopilot » et « Full Self-Driving ») sont critiquées. Selon les experts, ces terminologies peuvent induire les conducteurs en erreur, en leur laissant croire que leur Tesla peut réellement se conduire toute seule, alors qu'il ne s'agit que d'un système d'assistance à la conduite.
Fait intéressant, en mars 2025, Tesla a annoncé la suppression de l'appellation Full Self-Driving de son logiciel de conduite autonome en Chine. En abandonnant cette terminologie en Chine, l'entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel. Tesla a déjà été condamné en Corée du Sud pour publicité mensongère.
En parallèle, le logiciel Full Self-Driving de Tesla, vendu à un prix élevé est toujours en phase bêta et l'objet de nombreuses critiques pour son manque de fiabilité. De nombreux propriétaires de Tesla et des analyses indépendantes ont rapporté des comportements incohérents des Tesla en mode Full Self-Driving, comme des freinages fantômes, des hésitations aux intersections, ou des réactions inappropriées dans des environnements urbains complexes.
Ces dysfonctionnements techniques, combinés à la pression réglementaire, sapent la crédibilité de Tesla. À l'international, notamment en Europe, cette insécurité perçue contribue à détourner les consommateurs au profit de constructeurs proposant des systèmes plus transparents et mieux encadrés. Aux États-Unis, la NHTSA a ouvert plus de 40 enquêtes sur les accidents impliquant les systèmes de conduite assistée Autopilot et Full Self-Driving de Tesla.
Tesla a renoncé à la technologie LiDAR au profit des caméras
Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. L'argumentaire varie selon les personnes interrogées et le moment, mais il se résume généralement au fait que le LiDAR coûte trop cher, qu'il nécessite plus de traitement de données et qu'il sert finalement de béquille pour ralentir le développement de la vision par ordinateur. Elon Musk est allé jusqu'à déclarer que le LiDAR est une « aventure insensée ».
C'est peut-être vrai, mais il ne traverse pas non plus les murs, alors il faut peser le pour et le contre. Il est difficile d'imaginer que l'on puisse laisser sa voiture percuter un enfant alors qu'elle aurait pu l'éviter grâce à d'autres technologies et de se dire : « au moins, cela n'a pas ralenti le développement d'une technologie qui, à terme, pourrait ne pas aboutir à ce qui vient de se produire ». Quoi qu'il en soit, la vidéo du test est intéressante à regarder.
Lorsque Tesla a annoncé sa décision d'abandonner le LiDAR en 2021, il a été critiqué. « Il n'y aura jamais une conduite autonome sûre avec la seule vision. Il est évident que même nous, les humains, utilisons beaucoup plus de sens qui ne sont pas facilement remplaçables techniquement. La peur et l'adrénaline par exemple, ou l'audio. Mais la vision seule est une approche qui ne sera jamais sûre », a réagi un utilisateur de Twitter en réponse à l'annonce.
Les caméras peuvent offrir des résolutions plus élevées et un coût de production plus faible. Toutefois, elles ont des limites importantes. Elles sont moins efficaces dans de mauvaises conditions météorologiques et leur précision est moindre la nuit. En revanche, les capteurs radar sont plus fiables, car ils offrent une meilleure portée et une plus grande précision en matière de distance, quelles que soient les conditions météorologiques ou de luminosité.
Les capteurs radar ont cependant une résolution plus faible, ce qui signifie qu'ils ont besoin d'une technologie leur permettant de fonctionner à des fréquences plus élevées, ce qui est coûteux. Selon certains analystes, la réduction des coûts est probablement un autre facteur qui a motivé la décision de Tesla.
Conclusion : Tesla peut-il s'améliorer ?
Tesla n'exploite pas des véhicules entièrement autonomes fonctionnant sans assistance. Un humain est assis dans la voiture et son seul travail consiste à prévenir les accidents. Et pourtant, le taux d'accidents de Tesla reste près d'un ordre de grandeur supérieur à celui des conducteurs humains ordinaires conduisant seuls. Ces données contrastent avec les discours d'Elon Musk selon lesquels « ses robotaxis seraient plus sûrs que la conduite humaine ».
La fréquence des accidents semble légèrement diminuée, avec seulement un incident signalé en octobre et un autre en novembre. Cependant, même avec ces progrès, un accident tous les 55 000 miles avec un moniteur de sécurité à bord est loin d'être suffisant pour que le robotaxi soit prêt à être commercialisé. Plus inquiétant encore, le secret qui entoure Tesla rend impossible l'évaluation de la réalité ou du caractère temporaire des améliorations.
Le programme de robotaxis de Tesla n'est pas seulement en retard par rapport à ses concurrents, notamment Waymo, filiale du groupe Alphabet. Il échoue sur les deux points les plus importants : la sécurité et la transparence. Si Tesla veut être pris au sérieux en tant qu'opérateur de robotaxis, il doit :
- réduire considérablement son taux d'accidents ;
- cesser de cacher au public les données essentielles en matière de sécurité.
À l’heure actuelle, Tesla ne fait ni l’un ni l’autre. Et si l’on se base uniquement sur les chiffres, rien ne permet d’affirmer que ses robotaxis sont prêts à rouler sans surveillance. Bien que Waymo semble en avance sur Tesla dans ce domaine, la filiale d'Alphabet vient d'admettre que ses véhicules autonomes font appel à des opérateurs humains basés aux Philippines. Cet aveu suscite une question cruciale : les véhicules autonomes sont-ils une grosse escroquerie ?
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du taux d'accidents des robotaxis autonomes de Tesla ?
Les robotaxis autonomes de Tesla seront-ils un jour plus sûrs que la conduite humaine ?
Selon vous, la conduite autonome est-elle à portée de main ? Ou s'agit-il simplement d'une grosse escroquerie ?
Voir aussi
Tesla abandonne les Models S et X pour se consacrer à la construction de robots humanoïdes. Les véhicules électriques qui étaient autrefois à la pointe de l'industrie ont depuis longtemps été dépassés
Tesla a le taux d'accidents mortels le plus élevé parmi les marques automobiles, selon une étude, malgré des fonctionnalités telles qu'Autopilot et Full-Self Driving, censées réduire l'erreur humaine
Waymo admet ce que Tesla cache : ses véhicules autonomes font appel à des opérateurs humains basés aux Philippines. « Robotaxis », la plus grande arnaque sémantique de la décennie Tech ?
Les robotaxis Tesla auraient un taux d'accidents quatre fois supérieur à celui des humains avec un moniteur à bord pour limiter les dégâts,
Tesla a même caché une hospitalisation durant 5 mois
Huit mois après le lancement du service de robotaxi de Tesla à Austin, les données transmises à la NHTSA dressent un tableau alarmant : la flotte autonome accumule les accidents à un rythme quatre fois supérieur à celui d'un conducteur humain moyen, selon les propres benchmarks de l'entreprise. Et si les chiffres sont déjà préoccupants, c'est l'opacité systématique de Tesla sur ces incidents qui soulève les questions les plus graves pour l'avenir de la conduite autonome.
Depuis son lancement en juin 2025, le service de robotaxi de Tesla opère dans le périmètre d'Austin, au Texas, avec une flotte de Model Y équipées du système de conduite autonome (ADS) de l'entreprise. En janvier 2026, Tesla a transmis cinq nouveaux rapports d'accidents à la NHTSA, couvrant des incidents survenus en décembre 2025 et janvier 2026. Ces cinq événements portent le total cumulé à 14 accidents depuis l'ouverture du service, soit une progression constante qui ne montre aucun signe d'amélioration.
Les incidents les plus récents illustrent une variété de situations problématiques : une collision avec un objet fixe à 27 km/h en ligne droite, un choc avec un bus alors que le véhicule Tesla était immobilisé, une collision à faible vitesse avec un poids lourd, et deux incidents distincts où le véhicule autonome a reculé dans des obstacles — un poteau ou arbre à environ 1,6 km/h, un objet fixe à 3,2 km/h. Ces vitesses basses ne doivent pas induire en erreur : elles révèlent des défaillances systémiques dans la gestion de situations pourtant basiques, comme la marche arrière ou la détection d'objets statiques.
Les chiffres qui condamnent Tesla… par ses propres métriques
Le bilan actuel représente environ un accident toutes les 57 000 miles (environ 91 700 km) sur une flotte ayant parcouru approximativement 800 000 miles depuis le début du service. Ce chiffre prend une dimension particulièrement ironique lorsqu'on le compare aux données publiées par Tesla elle-même dans son Vehicle Safety Report, qui indique qu'un conducteur américain moyen subit un accident mineur environ tous les 229 000 miles et une collision majeure tous les 699 000 miles.
Par le biais de ses propres benchmarks, la flotte robotaxi de Tesla est impliquée dans des accidents environ quatre fois plus souvent que ce que la société cite comme normal pour un conducteur humain moyen lors d'une collision mineure. Si l'on retient les statistiques de la NHTSA sur les accidents reportés à la police — une collision tous les 500 000 miles environ — le ratio grimpe à huit ou neuf fois la fréquence humaine.
Ce qui rend ce constat encore plus accablant est souvent négligé dans le débat public : chacun de ces miles a été parcouru avec un moniteur de sécurité entraîné à bord, capable d'intervenir à tout moment. Ces véhicules ne sont donc pas des systèmes pleinement autonomes opérant sans filet. Il y a un être humain dans la voiture dont l'unique mission est de prévenir les accidents. Le taux d'accident observé est donc un plancher optimiste, et non un plafond : sans ces interventions humaines non comptabilisées, le bilan réel serait probablement bien plus lourd.
Une hospitalisation cachée cinq mois durant
Parmi les révélations les plus troublantes figure la mise à jour discrète d'un rapport d'accident datant de juillet 2025. Tesla avait initialement classé cet incident — une collision en tournant à droite contre un SUV à environ 3,2 km/h — comme relevant uniquement de « dommages matériels ». En décembre 2025, soit cinq mois plus tard, la société a soumis une troisième version du rapport, reclassifiant la gravité des blessures en « Mineur avec hospitalisation ». Cela signifie qu'une personne impliquée dans un accident d'un robotaxi Tesla a nécessité des soins hospitaliers, une information que Tesla n'a jamais rendue publique de son propre chef.
Cette révision tardive, enfouie dans une mise à jour de base de données réglementaire, illustre un problème de transparence qui dépasse la simple question des performances techniques. Elle soulève des interrogations légitimes sur la qualité et la sincérité du reporting de Tesla envers le régulateur fédéral.
L'opacité comme stratégie : Tesla seul contre tous
Sur ce point, la comparaison avec les autres opérateurs de véhicules autonomes est brutale. Chaque rapport de crash Tesla dans la base de données NHTSA est intégralement rédigé avec la même mention : « [REDACTED, MAY CONTAIN CONFIDENTIAL BUSINESS INFORMATION] ». Les narratifs complets — qui décrivent les circonstances exactes de l'accident, le comportement du système, les éventuelles tentatives d'intervention du moniteur — sont systématiquement masqués.
Tesla est, selon les données disponibles, le seul opérateur ADS à procéder ainsi de manière aussi systématique. Waymo, Zoox, Aurora, Nuro : tous fournissent des descriptions narratives complètes de chaque incident. Un rapport type de Waymo issu du même jeu de données décrit par exemple : « Le véhicule Waymo circulait vers le nord sur N. 16th Street dans la voie de gauche quand il a ralenti et s'est arrêté pour céder le passage à un piéton qui avait commencé à traverser. » Ce niveau de détail permet une évaluation indépendante de la responsabilité du système, de la réactivité du moniteur et des axes d'amélioration.
Sans ces narratifs, il est impossible de déterminer si le système autonome de Tesla était en faute, si le moniteur a failli à son rôle, ou si les accidents étaient inévitables. Tesla demande une confiance aveugle tout en rendant toute vérification impossible — une posture difficilement défendable pour une technologie déployée sur la voie publique.
L'abîme Waymo : une autre vision de l'autonomie
Le contraste avec Waymo (filiale d'Alphabet) est saisissant, et pas uniquement sur le plan de la transparence. Waymo a accumulé plus de 127 millions de miles entièrement sans conducteur, et des recherches indépendantes montrent que ses véhicules réduisent les accidents causant des blessures de 80 % et les accidents causant des blessures graves de 91 % par rapport aux conducteurs humains. À Austin même, Waymo rapporte 51 incidents dans la même base de données NHTSA, mais sa flotte a parcouru un nombre de miles incomparablement supérieur à celle de Tesla dans la ville.
Waymo tire sa robustesse d'une architecture multi-capteurs combinant LiDAR, radar et caméras, offrant une redondance que le système caméra-uniquement de Tesla ne peut pas garantir. Cette différence architecturale est au cœur du débat technique sur l'approche de Tesla. Elon Musk a longtemps défendu l'idée que le LiDAR était une « béquille » inutile et coûteuse, arguant que la vision artificielle seule suffisait à reproduire les capacités d'un conducteur humain. Les données d'Austin remettent sérieusement en question ce postulat.
Un autre facteur aggravant : le service robotaxi de Tesla tend à limiter son fonctionnement ou à s'arrêter en cas de pluie ou de mauvaises conditions météorologiques à Austin (les capteurs, basés sur la vision, peuvent être perturbés par une faible visibilité, ce qui conduit le système à suspendre le service par précaution). Austin enregistre en moyenne plus de 80 jours de pluie par an. Le système vision-only de Tesla repose sur huit caméras pour naviguer (Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur). La pluie, le brouillard et les reflets solaires obstruent ces caméras, dégradant la capacité du système à fonctionner en sécurité. NHTSA a spécifiquement demandé à Tesla comment il entendait opérer dans des conditions de faible visibilité — et Tesla a demandé à l'agence de dissimuler sa réponse.
Un déploiement qui défie la logique réglementaire
Tesla a commencé à proposer des courses sans moniteur de sécurité à Austin fin janvier 2026, soit juste après avoir enregistré quatre accidents dans la première moitié du mois. Cette décision, prise alors que les métriques de sécurité continuent de se détériorer, interpelle les observateurs du secteur. Si les véhicules supervisés affichent un taux d'accident plusieurs fois supérieur à la moyenne humaine, qu'en sera-t-il des opérations pleinement non supervisées ?
Elon Musk a récemment admis que Tesla avait besoin de 10 milliards de miles de données pour une « conduite autonome non supervisée sûre » — un seuil que la flotte n'atteindra pas avant juillet 2026 au plus tôt. Cette déclaration, faite par Musk lui-même, entre en contradiction directe avec le déploiement commercial déjà en cours sans moniteur.
Sur le plan boursier, les révélations ont eu un impact immédiat : l'action Tesla a chuté de 2,7 % lors de la séance du mardi 18 février, alors que les investisseurs intégraient les nouvelles données de sécurité dans leurs valorisations.
Du côté de la régulation, l'absence de réaction des autorités fédérales et texanes suscite des interrogations. La NHTSA a bien ouvert une enquête sur un incident impliquant un enfant renversé par un robotaxi Waymo à Santa Monica, et une enquête séparée sur des véhicules Waymo n'ayant pas respecté l'arrêt obligatoire aux passages de bus scolaires. Mais face aux données Tesla d'Austin, aucune procédure formelle n'a été engagée.
L'enjeu dépasse Tesla
Ce que révèle l'affaire Austin va bien au-delà du cas particulier de Tesla. Elle pose une question de fond sur les conditions dans lesquelles un système de conduite autonome peut légitimement être déployé en conditions réelles, avec des passagers payants, sur des routes partagées avec d'autres usagers. La promesse de la voiture autonome repose sur un postulat central : la machine est, ou sera bientôt, plus sûre que l'humain. Si ce postulat ne se vérifie pas dans les données réelles, l'ensemble de l'écosystème de l'autonomie en pâtit.
Quand le nom le plus reconnu dans le véhicule électrique échoue aussi publiquement, cela ne nuit pas seulement à Tesla : cela empoisonne le puits pour l'ensemble de la technologie. La confiance du public, des régulateurs et des investisseurs dans la conduite autonome se construit sur des décennies d'efforts et peut se fragiliser très rapidement face à des statistiques aussi défavorables.
Tesla dispose d'un atout considérable : une flotte de millions de véhicules FSD en circulation dans le monde, générant des téraoctets de données de conduite chaque jour. Si cette masse d'information peut être transformée en amélioration algorithmique rapide, le tableau d'Austin pourrait n'être qu'une phase transitoire douloureuse. Mais la question de la transparence, elle, ne se résoudra pas par un simple patch logiciel. Elle relève d'un choix culturel et stratégique que Tesla devra tôt ou tard assumer.
Sources : rapport sur la sécurité des véhicules Tesla, Electrek (1, 2)
Et vous ?
Vision-only vs. multi-capteurs : Tesla persiste dans son approche caméra pure quand Waymo combine LiDAR, radar et caméras. Est-ce un choix technologique défendable à long terme, ou un pari risqué sur l'échelle de données ?
Transparence réglementaire : Tous les autres opérateurs ADS publient les narratifs complets de leurs incidents. Tesla les expurge systématiquement. Faut-il que la NHTSA rende cette transparence obligatoire, et la cacher devrait-il être interprété comme un aveu implicite ?
Le moniteur de sécurité : filet ou masque ? Si les véhicules supervisés crashent encore 4 à 9 fois plus que les humains, quel niveau de sécurité peut-on raisonnablement attendre des rides sans moniteur déjà lancées fin janvier 2026 ?
Les données FSD à grande échelle peuvent-elles compenser ? : Tesla a des millions de voitures qui collectent des données de conduite partout dans le monde. Ce volume peut-il compenser les lacunes architecturales du système vision-only, ou les données ne suffisent-elles pas à résoudre des problèmes de capteurs ?
Responsabilité légale : Quand un robotaxi en mode autonome est impliqué dans un accident, qui est responsable — le fabricant, l'opérateur de flotte, ou le moniteur de sécurité ? Le droit est-il prêt pour cette réalité ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Partager