Je dois dire que mon seul et unique trajet en mode fsd de Tesla, nous étions sur le point de foncer dans une voiture garée avant que le conducteur n'intervienne. Cela ne semble pas fiable quand on conduit vers un soleil à bas horizon.
Je dois dire que mon seul et unique trajet en mode fsd de Tesla, nous étions sur le point de foncer dans une voiture garée avant que le conducteur n'intervienne. Cela ne semble pas fiable quand on conduit vers un soleil à bas horizon.
faites vous confiz'cea NVIDIA quand ils disent qu'ils sont meilleurs que AMD ? Faites-vous confiance à Apple quand ils disent qu'ils sont meilleurs que Google ou Microsoft ?
Hein?
NVIDIA peut me tuer s'ils se sont planté?
Non je ne leur fait pas confiance pour ça mais ça n'a aucun impact sur ma vie ou sur celle d'un autre.
Le FSD risque de tuer des gens.
L'impact du mensonge est quand même bien différent, non?
Le pire dans le FSD est qu'une partie de ceux qui prennent le risque ne choisissent rien : tu ne ressembles à rien de ce que le FSD sait détecté--> tu n'existe pas --> tu n'es pas un obstacle --> la voiture peut passer à travers toi --> tu es mort/paraplégique
Justification de Musk : bah oui mais bozo se baladait en monocycle, LOL. Qui fait ça? Déso pas déso le clown. LOL.
Tesla : « notre échec à fabriquer de véritables voitures dotées d'une conduite autonome n'est pas une fraude »
l'entreprise tente de justifier son échec après des années de promesses non tenues
Après plusieurs années de déclarations farfelues sur l'arrivée imminente d'une voiture à conduite autonome, Tesla semble s'être finalement rendu à l'évidence. Sous le coup d'un recours collectif aux États-Unis pour fraude et escroquerie en ce qui concerne les logiciels Autopilot et Full Self-Driving (FSD), les avocats de Tesla ont déclaré récemment que le constructeur automobile américain pourrait admettre son échec, mais ont réfuté les accusations de duperie. Tesla a augmenté à plusieurs reprises le prix du FSD, mais par contre, il n'a jamais réussi à livrer un logiciel de conduite autonome de niveau 3. L'Autopilot et le FSD sont de niveau 2.
Elon Musk, PDG de Tesla, a déclaré à de nombreuses reprises depuis 2015 que les voitures Tesla seraient entièrement autonomes dans un délai relativement court, soit deux ans ou moins. Cependant, des années après que les délais qu'il s'est lui-même imposés se sont envolés, ce n'est toujours pas arrivé. Malgré les noms trompeurs des logiciels Autopilot et Full Self-Driving et les publicités de Tesla qui prêtent également parfois à confusion, les clients sont invités à garder leurs mains sur le volant en toute circonstance, même lorsque ces fonctions sont activées. Désormais, les clients semblent s'être lassés de l'attente et demandent des comptes à l'entreprise.
Le constructeur de voitures électriques fait l'objet d'un recours collectif de la part de clients des technologies Autopilot et Full Self-Driving (FSD). Ils affirment avoir été escroqués, dupés par les déclarations répétées du PDG Elon Musk et les documents marketing de Tesla au cours des six dernières années. Les plaignants affirment que ces différentes déclarations laissaient entendre que la conduite entièrement autonome était imminente. Mais à la date d'aujourd'hui, aucune voiture Tesla n'est capable de se diriger de manière totalement autonome, et pourtant l'entreprise vend ce qu'elle appelle "une capacité de conduite autonome complète" pour 15 000 dollars.
Pour sa défense, les avocats de Tesla ont déclaré que "le simple fait de ne pas réaliser un objectif ambitieux à long terme ne constitue pas une fraude". Cet argument est contenu dans une motion de rejet de l'affaire qui a été déposée au début du mois devant le tribunal de district américain de San Francisco. Si l'affaire va de l'avant, elle pourrait conduire à la déposition d'employés de Tesla qui ont participé au développement de la technologie et révéler ce que Musk savait et ne savait pas sur ses véritables capacités lorsqu'il a fait de nombreuses prévisions au fil des ans, y compris les nombreuses déclarations du milliardaire sur les robotaxis Tesla.
Musk avait prédit qu'il y aurait un million de robotaxis Tesla sur la route d'ici la fin de 2020, que les clients pourraient gagner 30 000 dollars par an en les louant et que leurs voitures prendraient de la valeur. Par exemple, la plainte cite un tweet de 2016 dans lequel Musk a noté : « une voiture Tesla serait capable de se conduire toute seule à travers les États-Unis d'ici l'année prochaine ». Plus tard cette année-là, Tesla a publié une vidéo, également citée dans le procès, qui, selon le constructeur automobile, montrait une de ses voitures se conduisant toute seule. Cependant, selon l'action en justice, la vidéo publiée par Tesla était trompeuse.
Les avocats de Tesla tentent d'empêcher que ces informations soient rendues publiques. La demande de rejet de l'affaire repose sur l'affirmation de Tesla selon laquelle les documents signés par les clients lors de l'achat de leur voiture les obligent à déposer individuellement des plaintes par le biais du système d'arbitrage privé. Un procès public permet aux clients de déposer des plaintes en tant que grand groupe, appelé "classe" ; l'arbitrage signifie que chaque client est seul. Alors qu'un procès public pourrait révéler des informations sur l'état du développement les logiciels Tesla à un moment donné, l'arbitrage garderait ce témoignage secret.
Des milliers de poursuites ont été engagées contre Tesla et Musk. Le recours à l'arbitrage privé est souvent la première réaction de Tesla face à des poursuites judiciaires publiques. Le cas de Cristina Balan est un exemple palpable. Ancienne ingénieure de Tesla, elle affirme avoir été diffamée par Tesla en 2017, ce qui a porté atteinte à sa réputation professionnelle, mais grâce à une série d'arguments procéduraux, les avocats de Tesla ont évité que l'affaire soit portée devant un tribunal public. Mais dans le cas de la nouvelle plainte, la litanie d'affirmations et de promesses faites par Musk et Tesla seront familières à toute personne qui suit Musk de près.
L'action en justice, déposée par le cabinet californien Cotchett, Pitre & McCarthy, cite également de nombreux cas d'accidents impliquant l'utilisation de la technologie d'aide à la conduite de Tesla. La plainte affirme que même parmi les systèmes avancés d'aide à la conduite, le système Autopilot de Tesla est en deçà de ceux qui sont désormais disponibles sur les marchés mondiaux auprès d'autres sociétés, dont Mercedes-Benz et Honda. Consumer Report estime d'ailleurs que le Super Cruise de Cadillac surpasse l'Autopilot de Tesla. Le nom Autopilot a fait l'objet de critiques de la part de groupes de sécurité et même de gouvernements.
Tesla et Musk ont défendu le nom, car, dans les avions, le système de pilotage automatique nécessite toujours un pilote actif et toujours alerte aux commandes. Un tribunal allemand a statué en 2020 que Tesla ne devait pas être autorisé à faire la publicité de sa technologie d'aide à la conduite sous le nom d'"Autopilot", bien que la plainte ait été rejetée par la suite, permettant l'utilisation du terme. Tesla et Musk ont déclaré qu'avec les futures améliorations logicielles qui seront livrées "en direct" (over the air), les voitures équipées de ces systèmes seront bientôt capables de se conduire elles-mêmes sans l'intervention d'une personne.
Ce n'est cependant pas encore le cas, et Tesla n'a pas respecté ses propres prévisions quant à la date à laquelle cela serait possible. Les organismes de réglementation enquêtent sur la technologie automatisée de Tesla depuis des années. Plusieurs accidents mortels ont été liés au logiciel Autopilot. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a ouvert plusieurs enquêtes, notamment sur les raisons pour lesquelles les Teslas semblent s'écraser de manière disproportionnée sur les véhicules d'urgence stationnés sur le bord de la route. L'agence n'a pas fixé de calendrier public pour une détermination.
Source : Les documents de la plainte
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des arguments avancés par Tesla pour tenter de faire rejeter la plainte ?
Selon vous, ces arguments sont-ils recevables ? Pensez-vous que Tesla a trompé et escroqué ses clients ?
Selon vous, les promesses non tenues d'Elon Musk et de Tesla constituent-elles une fraude ?
Que pensez-vous de la communication d'Elon Musk concernant les développements de l'Autopilot et du FSD ?
Selon vous, la justice doit-elle contraindre Tesla à changer le nom des produits FSD et Autopilot ?
Voir aussi
Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes, le nom "Autopilot" peut induire les automobilistes en erreur
Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2, « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »
Un tribunal allemand interdit les déclarations publicitaires de Tesla relatives à la conduite autonome et accuse le constructeur automobile de relayer dans ses publicités des allégations trompeuses
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Les clients ont leurs part de responsabilité aussi.
Je veux dire, on connait bien le pdg, a faire des promesses et des deadline qu'il ne tient jamais.
D'une manière générale, faut jamais croire le marketing des entreprises, c'est tous le temps du bullshit.
Les startups te promettent qu'elle vont révolutionner le monde (d'ici 10ans notre technologie va sauver le monde...).
Quand un grand groupe comme Apple/Nestles/Ikea etc se font attraper pour esclavagisme/maltraitance d’être humain ont te sort le même discours (ont était pas au courant, c'est un prestataire de prestataire...)
Notre gouvernement lui meme nous fait des promesses bidons H24, en ce moment on a "France 2030"
Des bullshit word, une musique épique, des phrases vide de sens mais qui fait classe.
Si les gens sont cons pour croire tout et n’importe quoi, libre à eux.
Une bonne façon de faire c'est d'attendre que le produit sorte et de lire les tests indépendants. J'ai toujours fait ça, jamais de précommande et je me suis jamais fait avoir.
Pour peu qu'on regarde 5 minutes sur le net, les Tesla sont des voitures pas fiable, au finition très merdique pour un prix très cher.
Si je devais acheter une voiture neuve avec l'esprit tranquille, je me rabattrait sur Toyota/Lexus au moins je maximise les chances de pas avoir trop de souci.
On est hors sujet, mais quand je vois toute la propagande gouvernementale et médiatique qu'on nous déverse, je suis effrayé par le nombre de personnes qui y croient. J'ai pris le métro (Lyon) ce jour, et le nombre de gens masqués ayant attrapé le virus de la peur a augmenté.
Heureusement qu'on a des médias internet alternatifs, qu'ils font tout pour censurer mais dont on est capables de contourner la censure (TOR et autres VPN).
Les gens n'ont pas compris que ce cher Elon n'est pas un génie incompris comme il aime nous le faire croire ! Beaucoup de gens pensent qu'il a créé tesla alors que ce sont des ingénieurs aux USA (Tarpenning et Eberhardt) pareil pour l'Hyperloop mais pour celui-ci le concept existe depuis bien longtemps.
Il y a très peu de ces projets qui sont allés jusqu'au bout, sauf SpaceX.
Fake it till you make it.
What if you never make it?
Let's meet at the court!
Musk se prend pour un génie et beaucoup lui donnent du crédit parce qu'il a réussi des projets où tout le monde pariait sur son échec (SpaceX, Starlink).
Il a surfé sur cette vague avec prétention mais je ne suis pas sûr qu'il garde longtemps sa crédibilité avec le FSD qui n'arrive pas à sortir, avec Neuralink qui tue des animaux à la vitesse d'un abattoir sans réel résultat apparent.
Musk pense probablement que le génie n'attends pas l'éthique et la rigueur scientifique mais il devrait prendre exemple sur James Cameron, par exemple, qui a eu l'idée de Avatar bien avant sa sortie et a attendu que la technologie arrive à maturité pour lancer son projet.
Je pense, j'espère que le modèle Musk va s'effondrer, on ne peut pas faire avancer la technologie et la science sur des montagnes de cadavres.
Les règlementations, la rigueur demandée par les études scientifiques sont "a pain in the ass" mais elles n'existent pas par hasard, elles évitent se sont construites en réaction à des actes inacceptables et des accidents. Elles sont en quelques sorte la sagesse du secteur.
il n'existe surtout à l'heure actuel aucune preuve qu'il soit techniquement possible de faire une voiture autonome.
Je parle pas de faire une voiture autonome que sur autoroute ou dans les bouchons à <30km/h. Encore que les systèmes confonde facilement une sortie avec l route principale.
Je parle d'une voiture autonome dans toutes les routes/toutes les conditions. Bon je sui gnetil je vous épargne les routes boueuses qui s'effondre en inde/afrique, mais rien que avoir la conduite autonome en sécurité sur le réseau secondaire en france, j'ai de gros doute sur cette faisabilité.
Moi même il m'arrive parfois le rien comprendre à la route (rond point très chelou, carrefour dans certains villages qui n'a absolument rien de standard, panneaux qu'il faut deviner car masqué par la végétation....)
A l'heure actuel le système qui fonctionne le mieux c'est celui de Mercedes... mais c'est limité aux routes qu'ils ont balisé en amont, oui des mecs ont été payé pour photographier la route en amont, tu parles d'une voiture autonome
Hier y'a neigé chez moi, j'aimerais bien voir ce que ferais le FSD quand il faut monter une cote verglacé et que la voiture patine/danse dans tous les sens et qu'avec la neige on voit plus la route ni les panneaux (tapis blanc).
Et la je parle d'une situation très fréquente en occident, à chaque hiver... Vouloir faire des taxis tesla autonomes dans ces conditions ca va être beau les jours de neige en ville.
Justement, une voiture autonome bien entrainé à plus chance "d'avoir déjà vu" ce genre de configuration et de savoir gérer.
ça c'est un autre problème, mais pour moi l'objectif final de la voiture autonome c'est de ne même plus avoir besoin de panneau: en fonction de la courbure de la route et de la visibilité des différents instruments de la voiture, elle adapte l'allure. C'est juste hors de portée de la puissance de calcul embarquée pour l'instant et du coup ils se rabattent sur du calcul distant sur des serveurs... ce qui n'est plus du tout être autonome.panneaux qu'il faut deviner car masqué par la végétation....)
A l'heure actuel le système qui fonctionne le mieux c'est celui de Mercedes... mais c'est limité aux routes qu'ils ont balisé en amont, oui des mecs ont été payé pour photographier la route en amont, tu parles d'une voiture autonome![]()
Dans l'absolu, je pense qu'il est parfaitement envisageable d'avoir un algo de conduite sur neige/verglas bien plus efficace que n'importe quel humain, en particulier dans le cas des véhicules électrique où tu peux gérer finement la vitesse et le couple de chacune des 4 roues.
Et c'est bien mignon de reprocher à une IA en développement de pas savoir conduire sur neige, mais il n'y a qu'a voir les problèmes qu'on a chaque année sur paris pour se rendre compte que beaucoup d'automobilistes ne le savent pas non plus.
Si l'IA se contente juste d'augmenter les distances de sécurité quand il neige et qu'elle s'y tient, elle aura déjà réglé 90% des accidents urbains dus à la neige.
Je peux donc affirmer : Je pense que savoir conduire mieux que l'Homme en général sur neige est sans doute le plus petit défi à relever par les véhicule autonome ^^.
Justement, elles ne seront jamais assez entraînées... Un jeu de test pertinent, ça coûte cher et c'est difficile à réaliser.
Dans l'absolu, je pense que tu as raison. Maintenant, si on se limite à Tesla aujourd'hui, dès qu'il neige fort devant chez moi (route très en pente), beaucoup de Tesla 3 se retrouvent bloquées (sans doute leur poids, ou un couple trop fort, je ne sais pas), là où d'autres voitures passent quand même.
Si une IA est en développement, elle n'a rien à faire sur les routes.
Pour ce qui est de la compétence des gens pour conduire sur la neige, tu as raison. Augmenter les distances de sécurité et s'y tenir, dans une ville avec de la circulation, c'est une utopie: tu auras toujours une andouille pour venir se mettre dans l'espace devant toi. Ce qu'il faudrait c'est saler les routes même si ça coûte cher, et de la formation continue. Les pilotes d'avion en ont régulièrement par exemple, et pourtant leurs appareils sont bardés d'automatisation.
Tiens, puisqu'on fait la liste, on peut rajouter les fictions à gros budget qui rentrent bien dans cette descriptionVa plus rester grand monde à la fin!
Dans les deux cas, il a de grosses institutions derrière lui. Pour SpaceX, la NASA et pour Starlink sûrement l'armé qui s'y intéresse. Là où il est seul, ça sent un peu la bulle quand même.
Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses,
qu'Elon Musk est mis au défi de prouver le contraire
Full Self-Driving, qui est encore en version bêta, ne connaitrait pas d'amélioration significative. C'est ce que suggèrent des données de désengagement mises à disposition par des propriétaires de Tesla. Si cet ensemble de données est minime, et ne sait être entièrement représentatif des capacités réelles de FSD, les observateurs demandent à Elon Musk de prouver le contraire en publiant des données sur le désengagement et l'intervention du conducteur comme le font les autres entreprises évoluant dans le secteur.
L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à une Tesla de « voir » les voitures et la route qui l'entourent, et de se conduire elle-même dans une certaine mesure. Depuis 2016, Tesla commercialise une fonctionnalité plus onéreuse baptisée Full Self-Driving (FSD). Une personne raisonnable pourrait déduire de ce nom que le progiciel permet à une voiture d'être totalement autonome. Mais ce n'est pas le cas. En réalité, aucune voiture disponible à l'achat pour les consommateurs n'est actuellement capable de conduite entièrement autonome.
Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars (il coûte désormais 15 000 dollars aux États-Unis).
Jason Hughes, un hacker bien connu dans le monde Tesla, a récemment qualifié le FSD de Tesla « d'escroquerie flagrante ». Le hacker a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel « défectueux » qui est en version bêta depuis sa sortie en 2016. Hughes a exposé un certain nombre de ces problèmes.
Le premier est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.
Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.
En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.
Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir (un abonnement mensuel ou 15 000 dollars) n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.
Les experts en véhicules autonomes (VA), les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.
Les données de désengagement
Tesla a fait tout son possible pour ne pas publier les données de désengagement que d'autres sociétés développant des systèmes de conduite autonome mettent à disposition. « Désengagement » peut être traduit par dysfonctionnement obligeant le conducteur à reprendre la main. Pour être plus nuancé, un désengagement peut être fait par le système lui-même, ou par le conducteur, afin soit d'éviter un danger, soit de respecter le code de la route. Les kilomètres entre les désengagements ont été des données utiles pour suivre les progrès des programmes de conduite autonome. En toute logique, moins il y a de désengagements, plus la technologie est au point.
Ce n'est pas une mesure parfaite pour suivre les progrès en matière de véhicule autonome, mais c'est l'une des seules que nous ayons en ce moment et nous devrions voir des améliorations au fil du temps avec plus de kilomètres entre le désengagement ou l'intervention du conducteur.
Bien que Tesla ne publie pas les données, un groupe de testeurs bêta de Tesla FSD rapporte lui-même des données depuis un certain temps maintenant, et Taylor Ogan de Snow Bull Capital les a suivis pour voir les progrès.
Selon les données, les kilomètres parcourus par désengagement ont diminué de 54 % depuis mars, et ils se situent actuellement à peu près au même niveau qu'à la même époque l'année dernière :
Sur la base de cet ensemble de données à nouveau limité, Tesla FSD Beta ne peut parcourir que quelques kilomètres entre les désengagements, tandis que d'autres programmes de conduite autonome, comme Waymo et Cruise, signalent en moyenne des dizaines de milliers de kilomètres entre les désengagements.
Ces résultats sont décevants, car ils indiquent très peu ou pas de progrès dans le programme FSD Beta au cours de la dernière année - du moins sur la base de cette métrique.
Toutefois, il faut noter que ces statistiques s'appuient sur les 72 000 miles (115 872 kilomètres) de données autodéclarées, contre plus de 60 millions de miles (96 millions de kilomètres) parcourus sur FSD Beta à ce jour. Par conséquent, il est plus que probable que le plus grand ensemble de données montre des résultats différents, mais il n'y a aucun moyen de le savoir à moins que Tesla ne publie ces données. L'entreprise n'explique pas pourquoi elle ne le fait pas.
Il n'est pas question ici de demander à Tesla de divulguer des informations sensibles sur le programme, mais uniquement des données que toutes les autres entreprises développant des programmes de conduite autonome partagent volontiers depuis des années maintenant.
Les données ont été utilisées pour renforcer la confiance dans ces systèmes, dont certains sont déjà déployés commercialement en Californie et en Arizona.
Au lieu de cela, le PDG de Tesla, Elon Musk, a répété à plusieurs reprises aux gens « d'essayer FSD Beta par eux-mêmes » afin d'évaluer ses progrès. Comme si des preuves anecdotiques seraient plus efficaces pour suivre les progrès que des données concrètes sur les kilomètres par désengagement.
À ce stade, il est difficile de ne pas se méfier de la possibilité que la raison pour laquelle Tesla ne publie pas les données soit que cela semble mauvais pour eux (en particulier par rapport à Waymo et Cruise). Mais sinon, comment le public peut-il gagner la confiance dans le système s'il ne dispose d'aucune donnée tangible indiquant des améliorations ?
D'ailleurs, à ce propos, un internaute a déclaré : « Elon Musk, veuillez publier les données Tesla FSD Beta et montrer le chemin parcouru vers la tenue de vos promesses. Sinon, nous devons nous fier à ces données [ndlr. Les données autodéclarées] pour suivre les progrès, et cela ne semble pas bon ».
Conclusion
L’autonomie des véhicules se définit selon des niveaux :
- Niveau 0 : c’est l’automobiliste reste maître à bord ;
- Niveau 1 : l’ordinateur peut intervenir pour gérer la vitesse ou la direction (régulateur de vitesse, alerte distance de sécurité) mais le conducteur garde le contrôle du véhicule ;
- Niveau 2 : la voiture peut « se conduire » temporairement, en se garant toute seule par exemple (park assist). Le conducteur reste responsable de la conduite ;
- Niveau 3 : le conducteur peut déléguer la conduite à l’ordinateur dans certaines situations comme les bouchons. La fonction embouteillage du XC 90 de Volvo illustre parfaitement ce niveau. L’ordinateur peut aussi indiquer au conducteur quand il doit reprendre le véhicule en main ;
- Niveau 4 : plus besoin du conducteur dans certains cas prédéfinis ; le véhicule dépose son conducteur, se gare seul et revient chercher son propriétaire ;
- Niveau 5 : la voiture est totalement autonome et contrôle toutes les fonctions du véhicule. Le conducteur peut être présent… ou non.
Certains véhicules atteignent le niveau 4. Nous pouvons citer le service de taxis autonomes RoboRide développé par Hyundai en Corée du Sud. Cependant, ce n'est pas encore le cas des Tesla et les noms de baptême de ses fonctionnalités comme Autopilot et Full Self-Driving peuvent prêter à confusion. D'ailleurs, certains élus ont suggéré que l'entreprise soit forcée à les changer pour ne pas induire les acheteurs en erreur.
Par ailleurs, rappelons que le nouveau Drive Pilot de Mercedes ressemble, dans son mode de fonctionnement, à de nombreuses technologies d'assistance à la conduite déjà commercialisées aujourd'hui. Sur certaines autoroutes allemandes, en dessous de 60 km/h, une Classe S ou EQS équipée de Drive Pilot prendra le contrôle de la vitesse, de la direction et des freins de la voiture pour vous déplacer dans la circulation. Mais il y a une différence clef : une fois que vous avez engagé Drive Pilot, vous n'êtes plus légalement responsable du fonctionnement de la voiture jusqu'à ce qu'elle se désengage. Vous pouvez détourner le regard, regarder un film ou sortir. Si la voiture tombe en panne pendant que Drive Pilot fonctionne, c'est le problème de Mercedes, pas le vôtre.
La volonté de Mercedes d'accepter la responsabilité de ses véhicules semi-autonomes augmentera sûrement ses chances de satisfaire les différents régulateurs. Bien que la distinction puisse sembler juridiquement farfelue, la suppression de la responsabilité du conducteur a nécessité une amélioration technologique massive par rapport aux systèmes de niveau 2 existants.
Pour rappel, les systèmes semi-autonomes les plus avancés disponibles aux États-Unis, y compris Tesla Autopilot et GM SuperCruise, relèvent toujours du niveau 2, où le conducteur est censé superviser activement le système et être prêt à prendre le relais instantanément chaque fois que le système se désengage.
Drive Pilot a plus de redondances, avec des alimentations supplémentaires pour les systèmes critiques. Il utilise un traitement d'image de meilleure qualité et des scanners LiDAR, et rassemble les données de positionnement des satellites GPS, Galileo et GLONASS pour le guidage. Contrairement à tous les systèmes d'aide à la conduite actuellement disponibles, Drive Pilot est conçu pour donner aux conducteurs un avertissement de 10 secondes avant de s'éteindre ; les ingénieurs devaient s'assurer que, dans chaque situation, le système transmettrait le contrôle en toute sécurité et sans erreur.
Sources : FSD Beta Community, Taylor Ogan (1, 2, 3)
Et vous ?
Que pensez-vous du Full Self-Driving ? Ce nom prêterait-il à confusion selon vous ?
Qu'est-ce qui pourrait expliquer pourquoi Tesla ne publie pas de données de désengagement comme ses pairs ?
Les données autopubliées sont-elles représentatives de l'évolution de FSD ? Pourquoi ?
Partagez-vous le point de vue des internautes estimant que Tesla conserve le Bêta depuis des années sur FSD pour éviter d'engager sa responsabilité ?
D'ailleurs, en cas d'accident avec FSD activé, qui devrait être responsable selon vous ? Tesla ou le conducteur ?
Voir aussi :
« L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies ». L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
Mercedes engage sa responsabilité lorsque son pilote de conduite autonome de niveau 3 Drive Pilot est activé. Mercedes sera le premier constructeur automobile à accepter la responsabilité
Les conducteurs humains au Royaume-Uni ne seront pas responsables des accidents lorsque la conduite autonome est activée
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures,
le conducteur a déclaré à la police que le logiciel fonctionnait mal
Un conducteur a déclaré aux autorités que le logiciel « full-self-driving » de sa Tesla avait freiné de manière inattendue et provoqué un carambolage de huit voitures dans la baie de San Francisco le mois dernier. Neuf personnes ont été traitées pour des blessures legères, dont un mineur qui a été hospitalisé, selon un rapport d'accident de la California Highway Patrol. Selon un rapport de police rendu public mercredi, le conducteur de la Tesla Model S de 2021 impliquée dans l’accident a déclaré à la police qu'il était en mode de conduite autonome intégrale (FSD) qui avait mal fonctionné.
Le directeur général Elon Musk a présenté le logiciel de conduite autonome de Tesla comme une vache à lait potentielle pour le plus grand constructeur de voitures électriques du monde. Mais les systèmes avancés d'aide à la conduite de Tesla - et les affirmations de Musk à leur sujet - font l'objet d'une surveillance juridique, réglementaire et publique croissante.
Le mois dernier, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.
La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.
« La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».
Dans le cas de l’accident du jour de Thanksgiving sur l'Interstate-80 près de Treasure Island, la California Highway Patrol a examiné des vidéos montrant le véhicule Tesla en train de changer de voie et de ralentir pour s'arrêter. Deux voies de circulation ont été fermées pendant environ 90 minutes alors que de nombreuses personnes se rendaient à des événements de vacances. Quatre ambulances ont été appelées sur les lieux.
Le carambolage a eu lieu quelques heures seulement après que le PDG de Tesla, Elon Musk, eut annoncé que le logiciel d'aide à la conduite « full self-driving » de Tesla était disponible pour toute personne en Amérique du Nord qui en faisait la demande. Tesla avait auparavant limité l'accès aux conducteurs ayant obtenu des scores de sécurité élevés dans son système d'évaluation.
« La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.
Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.
Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard « Autopilot », qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.
La « full-self-driving » est conçue pour suivre le trafic, rester dans sa voie et respecter la signalisation routière. Elle nécessite un conducteur humain attentif prêt à prendre le contrôle total de la voiture à tout moment. Ce système a ravi certains conducteurs, mais en a aussi alarmé d'autres par ses limites. Les conducteurs seraient avertis par Tesla lorsqu'ils installent la « full-self-driving » qu'elle « peut prendre la mauvaise décision au pire moment ».
Le rapport indique que la Tesla Model S roulait à environ 55 mph et s'est déplacée sur la voie d'extrême gauche, mais a ensuite freiné brusquement, ralentissant la voiture à environ 20 mph. Cela a entraîné une réaction en chaîne qui a fini par provoquer l'accident de huit véhicules, qui roulaient tous à des vitesses normales sur l'autoroute.
La présidente du National Transportation Safety Board, Jennifer Homendy, s'est interrogée sur le fait que Tesla commercialise cette fonction en la qualifiant d’entièrement autonome alors qu'elle n'en est pas capable.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla
La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord, il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Au démarrage de la voiture dite autonome, j'étais assez enthousiaste faisant confiance aux concepteurs dans la qualité. J'ai vite déchanté à la vue des soucis flagrant de sécurité entraînant des accidents en pagaille, mortels ou pas. Aujourd'hui, je suis sceptique sur l'avènement d'un véhicule que l'on pourrait appelé à partir de son smartphone à venir nous chercher comme un taxi sans chauffeur. Pourtant, la technologie a sûrement la capacité de le faire. Mais les concepteurs ont soit gravement négligé certains paramètres de la conduite autonome, soit mal conçu leur système. Qu'est-ce qui pousse un logiciel de conduite à freiner à 50 km/h sur la voie de gauche d'une autoroute au trafic fluide ?Quel est votre avis sur le sujet ?
D'ailleurs, on n'entend peu parler de voitures Waymo de Google pour de tels cas. Peut-être qu'ils sont moins répandus du fait d'une moindre esbroufe autour de leur concept de conduite autonome plus conscient des capacités de leur véhicule.
La Californie adopte une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving
Car c’est de la publicité mensongère qui laisse croire qu’ils sont totalement autonomes
Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe déjà de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. La Californie vient de procéder à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.
« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.
Une nouvelle mise à jour pour les véhicules Tesla est disponible depuis la mi-parcours du mois qui tire à son terme. La nouveauté : Tesla lance Steam dans ses voitures avec des milliers de jeux. La manœuvre était venue raviver le débat autour de la terminologie mise en avant par le constructeur (Full Self-Driving, Autopilot , etc.) En effet, elle renforce l’idée du « Ne vous inquiétez pas, vous pouvez même jouer au volant, Tesla s'occupe de tout, vous n'avez rien à gérer et vous n'avez à penser à rien d'autre qu'au divertissement avant tout. » Cette question de sécurité en lien avec la distraction au volant intervient dans un contexte où le constructeur lui-même reconnaît que ses véhicules en sont encore au stade d’aide à la conduite. Pourtant, les utilisateurs les considèrent comme des voitures dotées de complète autonomie.
L’automatisation disponible dans les véhicules disponibles à l’achat aujourd’hui est considérée comme étant de niveau 1 ou 2. Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.
Malgré les limitations des systèmes actuels, certains noms semblent trop surprenants quant à la capacité du conducteur de détourner son attention de la route. Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. Une autre a révélé que les conducteurs ne comprenaient pas toujours les informations importantes communiquées par les écrans du système.
Un cas pratique est celui du nom "Autopilot”. Ce dernier est susceptible de conduire les gens à surestimer les capacités de la technologie d'assistance au conducteur de Tesla. Les critiques préviennent que certains clients vont supposer qu’un système appelé “Autopilot” (pilote automatique) est totalement autonome. Les défenseurs de Tesla répliquent en soulignant que les capacités de pilotage automatique des avions ne sont pas totalement autonomes. Les pilotes doivent encore surveiller leur fonctionnement et intervenir en cas de problème, et le système de pilote automatique de Tesla n'est pas différent.
Une enquête de l'Institut d'assurance pour la sécurité routière fournit des données précieuses utiles à ce débat. Le groupe a posé des questions aux conducteurs sur les capacités de cinq systèmes avancés d'assistance au conducteur (ADAS - advanced driver-assistance systems). Ils ont identifié les produits uniquement par leur marque : Autopilot (utilisé par Tesla), Traffic Jam Assist (Audi et Acura), Super Cruise (Cadillac), Driving Assistant Plus (BMW) et ProPilot Assist (Nissan). Les participants à l'enquête ne savaient pas quel constructeur fabriquait chaque produit et ils n'en connaissaient pas les capacités. Il y avait 2 000 répondants au total, mais chacun n'a été interrogé que sur deux systèmes sur cinq, donnant lieu à quelques centaines de réponses pour chaque produit.
Il faut préciser qu’aucun de ces systèmes ne gère de manière fiable le maintien de la voie et le contrôle de la vitesse dans toutes les situations. Tous exigent que les conducteurs restent attentifs, et tous sauf Super Cruise, avertissent le conducteur si leurs mains ne sont pas détectées sur le volant. Super Cruise utilise plutôt une caméra pour surveiller le regard du conducteur et émettra un avertissement si le conducteur ne regarde pas vers l'avant.
Pour chaque système ADAS, les conducteurs ont été interrogés sur la sécurité de diverses activités qui ne sont pas recommandées par les constructeurs automobiles (de l’acte consistant à enlever ses mains du volant à la sieste pendant la conduite). Un plus grand nombre de participants ont estimé que poser chacun de ces actes était sans conséquence avec Autopilot activé plutôt qu'avec l'un des quatre autres systèmes ADAS.
Par exemple, 48% des personnes interrogées ont déclaré qu’il était sans danger pour un conducteur d’enlever ses mains du volant quand Autopilot était activé, contre environ 33% pour ProPilot Assist et moins de 30% pour les autres systèmes nommés. Six pour cent des conducteurs ont déclaré qu'il était sans danger de faire la sieste dans une voiture avec Autopilot activé, tandis que seulement trois pour cent ont déclaré la même chose pour les autres systèmes ADAS.
Tesla vient pourtant d’annoncer le lancement de Steam dans ses véhicules au mépris de toutes ces données et donc renforce les craintes en lien avec la distraction au volant.
La distraction au volant est une cause majeure de l'augmentation du nombre de décès sur la route aux États-Unis. Au cours des six premiers mois de cette année, 20 160 personnes sont mortes dans des accidents de la route, selon les estimations du ministère des Transports. Il s'agit d'une augmentation de 18,4 % par rapport au premier semestre de 2020 et du chiffre le plus élevé depuis 2006. L'inattention du conducteur est officiellement citée comme la cause d'environ 10 % des décès sur la route, a déclaré Steve Kiefer, un cadre supérieur de General Motors qui dirige également une fondation dédiée à la lutte contre la distraction au volant. Mais lui et d'autres experts en sécurité pensent que le chiffre réel est beaucoup plus élevé parce que, selon eux, les enquêtes sur les accidents négligent souvent la distraction et citent d'autres causes, comme la conduite dangereuse. « Je pense que le chiffre est plus proche de 50 pour cent », a déclaré Kiefer.
La distraction au volant découle d'activités qui retirent les mains des conducteurs du volant, détournent leurs yeux de la route ou détournent leur attention de la tâche de conduite. Elle est souvent liée à l'utilisation d'un smartphone, comme l'envoi de SMS ou d'e-mails au volant, mais il arrive aussi que les conducteurs lisent des livres ou se maquillent. Certains États interdisent l'utilisation du téléphone portable en main au volant. Les constructeurs automobiles, Apple et Google ont développé des logiciels embarqués pour faciliter l'utilisation de commandes vocales pour envoyer des SMS et passer des appels téléphoniques, tout en gardant les mains libres, pendant la conduite.
Source : CLI
Et vous ?
Que pensez-vous de cette mesure ?
Partagez-vous l’avis selon lequel de la terminologie telle que Full Self-Driving peut conduire les conducteurs à surestimer les capacités réelles des Tesla ?
Voir aussi :
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Pourquoi Tesla a-t-il cessé de publier en ligne ses statistiques relatives à la sécurité de l'Autopilot ?
Les experts pensent que cela permet à l'entreprise de cacher la défaillance de son logiciel
Tesla a accentué les controverses autour de l'Autopilot, son système d'aide à la conduite, en cessant de divulguer les statistiques relatives à sa sécurité. L'entreprise a rapporté les statistiques de sécurité de l'Autopilot, une fois par trimestre, à partir de 2018. Ces données mesurent le taux d'accidents par kilomètre parcouru. Mais l'année dernière, ces rapports ont cessé. Tesla n'a pas dit pourquoi il a pris cette décision, mais les critiques suggèrent que "le nombre d'accidents impliquant l'Autopilot est devenu alarmant, ce qui pourrait choquer les clients et influencer leurs comportements d'achat". L'entreprise craindrait également des recours collectifs basés sur ces chiffres.
En juin 2021, la National Highway Traffic Safety Administration (NHTSA) des États-Unis, le principal organisme de réglementation de la sécurité automobile du pays, a commencé à exiger des rapports d'accidents de la part des constructeurs automobiles qui vendent des systèmes avancés d'aide à la conduite (ADAS) tels que l'Autopilot. Elle a commencé à publier ces chiffres en juin. Et ces chiffres ne sont pas bons pour l'Autopilot. Le système d'aide à la conduite de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents impliquant ces systèmes.
Cela représente 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de l'Autopilot. Cependant, Tesla aurait cessé de communiquer ses chiffres sur la sécurité de l'Autopilot, peu après que la NHTSA a commencé à collecter et à publier des données sur les accidents impliquant les systèmes avancés d'aide à la conduite. Tesla n'a pas dit pourquoi elle a cessé de mettre ces données en ligne, mais les critiques de l'entreprise ont une théorie sur la raison pour laquelle les chiffres sur la sécurité de l'Autopilot de Tesla ne sont plus accessibles au public.
« Parce que la situation est devenue bien pire », a déclaré Taylor Ogan, directeur général de la société de gestion de fonds Snow Bull Capital, lors d'un Twitter Spaces jeudi pour donner sa propre interprétation des chiffres sur la sécurité de l'Autopilot. Un tweet envoyé au PDG de Tesla, Elon Musk, l'invitant à faire des commentaires est resté sans réponse. Et Tesla n'emploie pas de service de relations avec les médias. Les sociétés de Musk en sont souvent dépourvues. Jeudi également, la NHTSA a annoncé qu'elle avait ajouté deux autres accidents aux dizaines d'incidents liés à la conduite automatisée de Tesla sur lesquels elle enquête déjà.
L'un d'entre eux a impliqué huit véhicules, dont une Tesla Model S, sur le pont de la baie de San Francisco le jour de la fête de Thanksgiving. En utilisant les chiffres des accidents de la NHTSA, les rapports antérieurs de Tesla, les chiffres de vente et d'autres données, Ogan a conclu que le nombre d'accidents de Tesla signalés sur les routes américaines a augmenté beaucoup plus rapidement que la croissance des ventes de Tesla. Selon lui, la croissance mensuelle moyenne des nouvelles voitures Teslas depuis que la NHTSA a émis son ordre permanent est de 6 %, alors que les statistiques d'accidents comparables ont augmenté de 21 %.
Le nombre d'accidents liés au système Autopilot de Tesla est bien plus élevé que celui des systèmes d'aide à la conduite similaires de General Motors et de Ford. Tesla a signalé 516 accidents entre juillet 2021 et novembre 2022, tandis que Ford en a signalé sept et GM deux. Certes, Tesla possède beaucoup plus de véhicules équipés de systèmes d'aide à la conduite que ses concurrents. Tesla en aurait un million, soit environ dix fois plus que Ford. Toutes choses égales par ailleurs, cela signifierait que Tesla devrait avoir un total de 70 accidents signalés par la NHTSA depuis l'été dernier pour être comparable au taux déclaré par le concurrent Ford.
Au lieu de cela, Tesla a signalé jusqu'à 516 accidents. En janvier dernier, Ross Gerber, un partisan connu de Tesla, a écrit dans un tweet : « juste pour noter. Il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du FSD. Pas un seul. Même pas un seul. Dans ce laps de temps, vingt mille personnes sont mortes sur la route dans des accidents de voiture. Correct @elonmusk ? (On touche du bois) ». Gerber a tagué Musk dans le tweet et lui a demandé si ces statistiques étaient correctes. Musk a répondu par "exact", même si lui et la NHTSA étaient au courant d'au moins huit accidents à ce moment-là.
Depuis lors, l'action Tesla a perdu 65 % de sa valeur. Une partie de cette perte peut être attribuée à l'achat de Musk et à ses déboires ultérieurs avec Twitter, mais les chiffres liés à la sécurité ont continué à se dégrader, et les accidents de Tesla sont en hausse. Deux autres décès impliquant Tesla ont eu lieu en octobre, ce qui porte à 18 le nombre d'accidents mortels impliquant l'Autopilot depuis juillet 2021. L'enquête de la NHTSA sur Tesla continue de s'étendre. Rien que cette année, la NHTSA a enquêté sur 830 000 Teslas pour des défauts de l'Autopilot. Il n'y a pas d'informations claires sur le nombre de blessures et de décès liés à l'Autopilot.
Les statistiques d'accidents de la NHTSA dépendent en effet de la réception de données précises de la part de l'entreprise. Les rapports trimestriels de sécurité de Tesla ont toujours été controversés. Ils ont mis l'Autopilot de Tesla sous un bon jour : pour le quatrième trimestre de 2021, Tesla a signalé un accident pour 4,31 millions de kilomètres parcourus dans des voitures équipées du système Autopilot. L'entreprise a comparé ce chiffre aux statistiques gouvernementales qui indiquent un accident pour 778 922 kilomètres parcourus sur les routes du pays, tous véhicules et conducteurs confondus. Ce qui n'est pas tout accepté par les experts.
Les statisticiens ont relevé de sérieux sérieux défauts d'analyse, notamment le fait que les statistiques de Tesla concernent des voitures plus récentes conduites sur les autoroutes. Les statistiques générales du gouvernement américain incluent les voitures de tous âges sur les autoroutes, les routes rurales et les rues de quartier. En d'autres termes, Tesla fait une comparaison entre des pommes et des oranges. Le nombre de blessures et de décès liés à l'Autopilot et au FSD est inconnu - sauf, peut-être, pour Tesla. Les statistiques de sécurité publiquement disponibles sur les véhicules autonomes et semi-autonomes sont rares.
Pendant ce temps, le système de signalement des accidents aux États-Unis est ancré dans la méthodologie des années 1960. L'ordonnance de la NHTSA relative à la collecte de statistiques sur les accidents impliquant des systèmes d'assistance au conducteur, publiée en 2021, dépend de la bonne foi des constructeurs automobiles pour l'établissement de rapports précis et complets. (Musk a fait des déclarations erronées sur le bilan de sécurité du FSD dans le passé, notamment en affirmant que la technologie n'avait été impliquée dans aucun accident, alors que le dossier public indiquait clairement le contraire.)
Toutes les informations envoyées à la NHTSA ne sont pas disponibles pour un examen public. Ogan, qui conduit une Tesla équipée du FSD, a déclaré que des données publiques plus exhaustives permettraient une plus grande transparence en matière de sécurité des voitures robotisées, chez Tesla et chez d'autres constructeurs. Tesla a déjà communiqué son taux d'utilisation de l'Autopilot, mais ne le fait plus. « Je regarde les seules données disponibles », a-t-il déclaré. La Californie enquête pour savoir si Tesla violait sa règle interdisant de commercialiser des véhicules comme étant entièrement autonomes alors qu'ils ne le sont pas.
Musk a clairement déclaré que l'entreprise envisageait de développer le FSD pour créer un robotaxi entièrement autonome que les propriétaires de Tesla pourraient louer pour arrondir leurs fins de mois. Il avait promis d'en mettre un million sur les routes d'ici 2020, mais cette date est passée et il n'existe toujours pas de Tesla entièrement autonome. Mais encore, Tesla n'a pas su mettre au point un Autopilot qui inspire confiance et sur lequel les conducteurs peuvent se reposer entièrement. L'Autopilot combine un régulateur de vitesse adaptatif avec des systèmes de maintien et de changement de voie sur les autoroutes.
Le FSD est commercialisé comme un système d'IA avancée capable de rouler dans les rues d'un quartier, de s'arrêter aux feux de signalisation, de tourner dans les rues fréquentées et, d'une manière générale, de se comporter comme si la voiture se conduisait toute seule. Cependant, Tesla indique clairement que le conducteur humain doit garder le contrôle total de la voiture et qu'il est légalement responsable des accidents, y compris ceux qui entraînent des blessures et des décès. La sécurité et les capacités de la FSD sont, de l'aveu même de Musk, des préoccupations existentielles - d'autant plus que l'action Tesla continue de plonger.
Dans une interview accordée en juin à Axios, Musk a déclaré que "résoudre" le FSD est "vraiment la différence entre Tesla qui vaut beaucoup d'argent et qui vaut pratiquement zéro". Internet est rempli de vidéos sur le FSD se comportant mal - tournant dans la circulation en sens inverse, confondant les voies ferrées avec les routes, brûlant les feux rouges, etc.
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes, le nom "Autopilot" peut induire les automobilistes en erreur
Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le cours de l'action de Tesla continue de plonger, passant de 399,93 dollars à 112 dollars en un an, soit une baisse d'environ 72%
ce qui est son plus bas niveau depuis deux ans
Mardi, le cours de l'action de Tesla a chuté à son plus bas niveau depuis un peu plus de deux ans. Cela a fait suite l’annonce par Tesla d’une probable réduction de la production dans son usine de Shanghai. Alors que la Chine est le premier marché automobile au monde, une baisse de la demande sur place est désormais crainte. Mais les prises de parole d'Elon Musk sur Twitter n'y sont pas étrangères; les investisseurs se disent préoccupés par l'orientation du PDG Elon Musk lui-même. Ce dernier semble surtout se soucier de changements à apporter chez Twitter, le réseau social dont il a fait l'acquisition plus tôt cette année.
Il faut noter que le 17 décembre, la capitalisation boursière de Tesla était de 470 milliards de dollars, contre plus de 1 000 milliards de dollars au début de l'année (et 353 aujourd'hui) : en seulement quelques jours, Tesla a perdu plus de 100 milliards de dollars de capitalisation boursière
Tesla pourrait enregistrer la pire année de son histoire. Les actions de Tesla Inc. ont chuté de 2,8% dans les échanges avant commercialisation mardi, après que le constructeur de véhicules électriques a prolongé samedi la suspension de la production de son usine de Shanghai tandis que les infections au COVID augmentaient en Chine.
Après son envol sur les places boursières en 2021, le constructeur automobile est en chute libre, son titre ayant perdu près de 70% de sa valeur depuis janvier. Mardi 27 décembre, l'action du constructeur plongeait de 11,4%, à 109,10 dollars au Nasdaq. Un peu plus d'an plus tôt, en novembre 2021, cette même action dépassait les 380 dollars, portant la capitalisation du groupe à son plus haut, à plus de 1000 milliards de dollars. Aujourd'hui, cette capitalisation oscille autour de 390 milliards de dollars.*
La suspension de la production de Tesla à l'usine de Shanghai est intervenue un jour plus tôt que prévu, selon un rapport du Wall Street Journal, alors que la production devait reprendre le 2 janvier. Tesla a généré 5,13 milliards de dollars de revenus en provenance de Chine au troisième trimestre, soit 23,9 % du chiffre d'affaires total de 21,45 milliards de dollars. L'action a chuté de 56,5 % au cours des trois derniers mois jusqu'à vendredi, tandis que le S&P 500 SPX, -0,57 %, a gagné 5,4 %
Elon Musk qui passe plus de temps sur Twitter et délaisse Tesla
Tandis que l’action Tesla s’effondre, Elon Musk semble plus préoccupé par des combats idéologiques sur sa nouvelle acquisition : Twitter.
Musk est-il trop sollicité ou a-t-il simplement fait le mauvais choix en acquérant Twitter cet automne ? À la tête de quatre grandes entreprises mondialement connues - Tesla, SpaceX, Neuralink et Twitter - le milliardaire semble avoir accordé plus de temps à la restructuration de Twitter qu'à la gestion de ses autres entreprises. Et cela pourrait bien entraîner une brouille avec les investisseurs des autres entreprises, notamment de Tesla. Musk a acheté Twitter pour la somme de 44 milliards de dollars fin octobre et depuis, il consacre son temps à chercher des moyens de rentabiliser cet investissement et rembourser ses créanciers dans l'affaire.
La gestion de l'entreprise de médias sociaux a occupé une grande partie de l'emploi du temps de Musk au cours des dernières semaines ; il a participé à de nombreux chats audio et a tweeté des photos de son travail depuis le siège de l'entreprise à San Francisco. Il y a quelques jours, certains investisseurs de Tesla lui ont demandé de passer les rênes de l'une de ses entreprises, arguant que le milliardaire est trop sollicité et accorde désormais moins de temps à son rôle au sein du fabricant de véhicules électriques. Mais encore, Tesla a perdu plus de la moitié de sa valeur boursière depuis que la saga Twitter/Musk a commencé au début du mois d'avril 2022.
Pour vous donner une idée de l'angoisse actuelle des investisseurs, il faut noter que le 17 décembre, la capitalisation boursière de Tesla était de 470 milliards de dollars, contre plus de 1 000 milliards de dollars au début de l'année (et 353 aujourd'hui) : en seulement quelques jours, Tesla a perdu 100 milliards de dollars de capitalisation. De plus, selon un document financier déposé mercredi soir, Musk a contribué aux pertes en vendant pour environ 3,5 milliards de dollars d'actions Tesla ces derniers jours. Cette somme s'ajoute à un autre montant de plus de 3,9 milliards de dollars en actions Tesla vendues par Musk début novembre. Selon certains analystes, Musk se dépêche de clôturer le rachat de Twitter afin d'éviter les indemnités de retard, mais les ventes d'actions Tesla nuisent au fabricant de véhicules électriques.
L'offre d'achat de Twitter par Musk est controversée par les investisseurs de Tesla depuis qu'il a annoncé son projet au printemps. Le milliardaire détient une grande partie de sa fortune en actions Tesla, et il est apparu immédiatement qu'il devrait tirer parti de sa position pour pouvoir acheter la société de médias sociaux. L'action de Tesla a chuté, mais de nombreux investisseurs sont restés prudemment optimistes, ou du moins neutres, quant à l'accord de Musk. Les investisseurs invoquent leur confiance en Musk, notamment ce qu'ils perçoivent comme son éthique de travail acharné et sa capacité à tirer le meilleur parti de ses employés.
Pourtant, les actions de Tesla n'arrêtent plus de plonger. Cela a par exemple été le cas lorsque Musk a fait face à des réactions négatives en ligne après que Twitter a suspendu les comptes de plusieurs journalistes. « Réveillez-vous, Tesla [conseil d'administration] - quel est le plan ? Qui dirige Tesla et quand Elon revient-il ? », a tweeté il y a quelques jours Ross Gerber, un investisseur de Tesla qui a soutenu l'offre de Musk sur Twitter. Plus tard, il a ajouté que Tesla devait racheter des actions « pour profiter du faible prix de l'action qu'Elon a créé », alors que les investisseurs anticipaient un nouveau coup potentiel à la valeur de l'entreprise.
« Certains investisseurs pensent que les récentes ventes d'actions de Musk pourraient être le dernier gros lot qu'il vend. Mais mon point de vue est que c'est un vœu pieux parce que c'est le garçon qui a crié au loup encore et encore », a déclaré Dan Ives, analyste de Wedbush Securities, soulignant les nombreuses ventes d'actions Tesla de Musk cette année. Musk a indiqué qu'il fera en sorte que les actionnaires de Tesla bénéficient de Twitter à long terme. Cependant, Tesla a reconnu dans des documents financiers que Musk est occupé par ses diverses entreprises commerciales, citant cela comme un risque pour l'entreprise.
Depuis qu'il a pris les rênes de Twitter fin octobre, Musk s'est demandé combien de temps Twitter allait continuer à lui imposer des contraintes de temps aussi lourdes. Il a déclaré qu'il finirait par réduire le temps qu'il consacre à Twitter et qu'il trouverait quelqu'un d'autre pour le diriger. « Nous sommes très dépendants des services d'Elon Musk, technicien de Tesla et notre président-directeur général. Bien que Musk passe beaucoup de temps avec Tesla et soit très actif dans notre gestion, il ne consacre pas tout son temps et son attention à Tesla », a déclaré la société, basée à Austin, au Texas. Twitter détourne donc toute l'attention de Musk.
« Nous sommes littéralement dans la meilleure partie de l'histoire de l'entreprise et elle est totalement démolie par Twitter. Je pense que l'action grimperait en flèche s'ils disaient simplement "Elon n'est plus PDG de Tesla". Ce n'est pas ce que je veux. Ce que je veux, c'est qu'il revienne à Austin », a déclaré Gerber dans une interview. Gary Black, associé directeur de la société de capital-risque Future Fund LLC, un investisseur de Tesla, a appelé le conseil d'administration de Tesla à faire pression sur Musk pour qu'il trouve un leader pour Twitter afin qu'il puisse recentrer son énergie sur l'entreprise de véhicules électriques.
Au sujet des prophéties de Dmitri Medvedev pour 2023, bras droit de Vladimir Poutine
Alors que la santé économique de Tesla inquiète le monde de la finance, qui se demande si Elon Musk est la bonne personne pour diriger Tesla, le milliardaire de la Tech préfère répondre à des tweets de Dimitri Medvedev, l’actuel vice-président du conseil de sécurité de la Russie et bras droit de Poutine, pour lui dire qu’il trouvait ses tweets « épiques ».
Il faut dire que Medvedev n'y est pas allé de main morte. Se prêtant au jeu des prédictions pour 2023, il a choisi le registre de l’outrance : « Le Royaume-Uni va réintégrer l’Union européenne », avance l'ancien dirigeant russe, ce qui conduira, sans que l’on en comprenne trop bien la logique, à la prédiction numéro 3. « l’UE s’effondrera après le retour du Royaume-Uni ; l’euro cessera d’être la monnaie de l’UE ». Il parle également de l'effondrement de l’ordre mondial tel que nous l’avons connu : « Toutes les plus grandes bourses et activités financières quitteront les États-Unis et l’Europe pour se déplacer en Asie ».
Et de prédire qu'« une guerre civile éclatera aux États-Unis, la Californie et le Texas devenant des États indépendants, écrit-il. Le Texas et le Mexique formeront un État allié. Elon Musk gagnera l’élection, dans un certain nombre d’États qui, à la fin de la nouvelle guerre civile, auront été donnés au Parti républicain ».
C'est à la suite du fil dans lequel il a fait ses 11 prédictions qu'Elon Musk a répondu qu’il trouvait ses tweets « épiques ». Quatre heures plus tard, Elon Musk a précisé qu’il avait en fait manié l’ironie, et qu’il ne croyait pas du tout aux prédictions de l’homme d’État russe : « Ce sont certainement les prédictions les plus absurdes que j'ai jamais entendues, tout en montrant une méconnaissance étonnante des progrès de l'intelligence artificielle et de l'énergie durable ».
Les accidents liés à Autopilot ne seraient pas étrangers à la chute de la capitalisation boursière
Tesla a accentué les controverses autour de l'Autopilot, son système d'aide à la conduite, en cessant de divulguer les statistiques relatives à sa sécurité. L'entreprise a rapporté les statistiques de sécurité de l'Autopilot, une fois par trimestre, à partir de 2018. Ces données mesurent le taux d'accidents par kilomètre parcouru. Mais l'année dernière, ces rapports ont cessé. Tesla n'a pas dit pourquoi il a pris cette décision, mais les critiques suggèrent que « le nombre d'accidents impliquant l'Autopilot est devenu alarmant, ce qui pourrait choquer les clients et influencer leurs comportements d'achat ». L'entreprise craindrait également des recours collectifs basés sur ces chiffres.
Le nombre d'accidents liés au système Autopilot de Tesla est bien plus élevé que celui des systèmes d'aide à la conduite similaires de General Motors et de Ford. Tesla a signalé 516 accidents entre juillet 2021 et novembre 2022, tandis que Ford en a signalé sept et GM deux. Certes, Tesla possède beaucoup plus de véhicules équipés de systèmes d'aide à la conduite que ses concurrents. Tesla en aurait un million, soit environ dix fois plus que Ford. Toutes choses égales par ailleurs, cela signifierait que Tesla devrait avoir un total de 70 accidents signalés par la NHTSA depuis l'été dernier pour être comparable au taux déclaré par le concurrent Ford.
Au lieu de cela, Tesla a signalé jusqu'à 516 accidents. En janvier dernier, Ross Gerber, un partisan connu de Tesla, a écrit dans un tweet : « juste pour noter. Il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du FSD. Pas un seul. Même pas un seul. Dans ce laps de temps, vingt mille personnes sont mortes sur la route dans des accidents de voiture. Correct @elonmusk ? (On touche du bois) ». Gerber a tagué Musk dans le tweet et lui a demandé si ces statistiques étaient correctes. Musk a répondu par "exact", même si lui et la NHTSA étaient au courant d'au moins huit accidents à ce moment-là.
Depuis lors, l'action Tesla a perdu 65 % de sa valeur. Une partie de cette perte peut être attribuée à l'achat de Musk et à ses déboires ultérieurs avec Twitter, mais les chiffres liés à la sécurité ont continué à se dégrader, et les accidents de Tesla sont en hausse. Deux autres décès impliquant Tesla ont eu lieu en octobre, ce qui porte à 18 le nombre d'accidents mortels impliquant l'Autopilot depuis juillet 2021. L'enquête de la NHTSA sur Tesla continue de s'étendre. Rien que cette année, la NHTSA a enquêté sur 830 000 Teslas pour des défauts de l'Autopilot. Il n'y a pas d'informations claires sur le nombre de blessures et de décès liés à l'Autopilot.
Les statistiques d'accidents de la NHTSA dépendent en effet de la réception de données précises de la part de l'entreprise. Les rapports trimestriels de sécurité de Tesla ont toujours été controversés. Ils ont mis l'Autopilot de Tesla sous un bon jour : pour le quatrième trimestre de 2021, Tesla a signalé un accident pour 4,31 millions de kilomètres parcourus dans des voitures équipées du système Autopilot. L'entreprise a comparé ce chiffre aux statistiques gouvernementales qui indiquent un accident pour 778 922 kilomètres parcourus sur les routes du pays, tous véhicules et conducteurs confondus. Ce qui n'est pas tout accepté par les experts.
Sources : capitalisation boursière Tesla, Dmitry Medvedev
Et vous ?
Qu'est-ce qui pourrait, selon vous, expliquer la chute de l'action de Tesla ?
Partagez-vous l'idée selon laquelle les prises de parole de Musk sur Twitter font partie des éléments qui ont plombé le cours de l'action ? Pourquoi ?
Qu'en est-il des accidents liés à Full Self-Driving et Autopilot ?
Voir aussi :
Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses qu'Elon Musk est mis au défi de prouver le contraire
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
De manière générale, sur les marchés il y a plus de vendeur que d'acheteur.
Les principaux indices USA continuent de baisser, notamment les 500 plus grosses capitalisations américaines avec le S&P500, notamment Apple, MS, et donc ce n'est pas surprenant que Tesla dégringole également.
Ce qui n'a rien d’anormal, les marchés étaient particulièrement haut, Tesla en particulier. Ça ne semble qu'un rattrapage, en douceur donc plutôt salutaire comparé à un éventuel crash.
Partager