Tesla et Elon Musk poursuivis par des actionnaires qui les accusent d'avoir exagéré l'efficacité et la sécurité des technologies de leurs véhicules
électriques
Tesla et son directeur général Elon Musk poursuivis par des actionnaires pour des affirmations relatives à la sécurité de la conduite autonome. Les actionnaires les accusent d'avoir exagéré l'efficacité et la sécurité des technologies Autopilot et Full Self-Driving de leurs véhicules électriques.
Dans une proposition de recours collectif déposée auprès du tribunal fédéral de San Francisco, les actionnaires ont déclaré que Tesla les a escroqués pendant quatre ans avec des déclarations fausses et trompeuses qui ont dissimulé comment ses technologies, soupçonnées d'être une cause possible de multiples accidents mortels, « créaient un risque sérieux d'accident et de blessure ».
Selon eux, le cours de l'action Tesla a chuté à plusieurs reprises lorsque la vérité a été révélée, notamment après que la National Highway Traffic Safety Administration (NHTSA) a commencé à enquêter sur les technologies et que la Securities and Exchange Commission a annoncé qu'elle enquêtait sur les affirmations de Musk concernant le système Autopilot.
Le cours de l'action a également chuté de 5,7 % le 16 février après que la NHTSA a imposé le rappel de plus de 362 000 véhicules Tesla équipés du logiciel bêta d'autopilotage intégral, car ils pouvaient être dangereux aux intersections.
Tesla a déclaré qu'elle avait accepté le rappel, bien qu'elle ne soit pas d'accord avec l'analyse de la NHTSA. « En raison des actes et omissions fautifs des défendeurs et de la chute précipitée de la valeur marchande des actions ordinaires de la société, le demandeur et les autres membres du groupe ont subi des pertes et des dommages importants », indique la plainte.
La poursuite intentée lundi par l'actionnaire Thomas Lamontagne vise à obtenir des dommages et intérêts non précisés pour les actionnaires de Tesla du 19 février 2019 au 17 février 2023. Le directeur financier Zachary Kirkhorn et son prédécesseur Deepak Ahuja sont également défendus.
Le cours de l'action Tesla a clôturé lundi en hausse de 10,75 dollars, soit 5,5 %, à 207,63 dollars, mais l'action a perdu environ la moitié de sa valeur depuis le sommet atteint en novembre 2021.
Musk, la deuxième personne la plus riche du monde, est attendu à la journée des investisseurs de Tesla le 1er mars pour promouvoir la capacité d'intelligence artificielle de la société et les plans d'expansion de sa gamme de véhicules.
Source : Recours collectif déposé auprès du tribunal fédéral de San Francisco
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage
Une faille dans les voitures Tesla permet aux voleurs d'avoir leur propre clé et de s'emparer de la voiture en seulement 130 secondes, l'exploit tire parti du lecteur de carte NFC des voitures Tesla
Les investisseurs concluent que Tesla est un constructeur automobile et non une entreprise technologique, l'achat de Twitter par Elon Musk a précipité la chute de l'action Tesla qui a baissé de 71 %
L'application Tesla tombe en panne dans toute l'Europe et empêche certains conducteurs de recharger leur voiture, l'application affichait le message d'erreur "503 Server Maintenance"
Ouin ouin, je place mon argent en bourse et je n'accepte pas le fait de pouvoir perdre de l'argent...
Quelle hypocrisie dans un monde technologique ou la culture dominante est "fake it until you make it" d'annoncer être trompé par les déclarations d'un patron.
D'autant plus quand ce patron, Musk, a l'habitude tenace de tout exagérer et annoncer des délais sensationnellement court sur des projets sensationnellement d'envergure (cybertruck, SpaceX, starlink, hyperloop, ...)
En bref, une belle bande de mauvais perdants.
Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes
un juge a déclaré que cet argument est "troublant"
Tesla et Elon Musk se retrouvent de nouveau au cœur d'une polémique après que les avocats de l'entreprise ont mis en doute cette semaine l'authenticité d'une vidéo dans laquelle le PDG vantait les mérites et la sécurité sans faille du logiciel de conduite autonome Autopilot du constructeur automobile. En effet, un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.
Tesla et Musk font face à une action en justice accusant le système d'aide à la conduite Autopilot de l'entreprise d'être à l'origine de la mort de Walter Huang, ingénieur chez Apple. L'accident mortel a eu lieu en 2018 et impliquant une Tesla Model X. Aujourd'hui, les avocats de sa famille cherchent à interroger Musk au sujet des déclarations qu'il avait faites sur la sécurité de l'Autopilot. Il s'agit principalement d'une interview réalisée en 2016 dans laquelle Musk affirmait qu'"une Model S et une Model X, à ce stade, peuvent se conduire de façon autonome avec une plus grande sécurité qu'une personne". Pourtant, aucune Tesla n'était en mesure de le faire.
Les avocats de Tesla ont vivement combattu la demande de la famille de la victime. Pour justifier leur opposition, les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
La vidéo de 2016 dans laquelle Elon Musk fait la promotion de l'Autopilot
« L'argument de Tesla pour expliquer pourquoi Musk ne devrait pas être tenu de témoigner est profondément troublant pour le tribunal. Leur position est que, parce que Musk est célèbre et pourrait être davantage la cible de contrefaçons profondes, ses déclarations publiques sont immunisées. En d'autres termes, Musk, et d'autres personnes de son rang, peuvent dire ce qu'ils veulent dans le domaine public, puis se cacher derrière la possibilité que leurs déclarations enregistrées soient des deepfakes pour éviter d'assumer la propriété de ce qu'ils ont réellement dit et fait », a déclaré la juge Evette Pennypacker de la Cour supérieure du comté de Santa Clara.
Les analystes ont affirmé que la déclaration des avocats de Musk était un aveu de faiblesse et montre que la défense n'a aucune marche de manœuvre. Autrement dit, "Musk et ses avocats sont coincés". Alors que les juges épargnent souvent aux PDG et autres hauts fonctionnaires de devoir faire des dépositions, la juge Pennypacker a déclaré que Musk pouvait être interrogé pendant environ trois heures au sujet de certaines déclarations qu'il a faites sur les fonctions de conduite assistée de Tesla. Son témoignage s'ajouterait aux centaines d'heures de dépositions déjà effectuées par d'autres témoins dans cette affaire, dont le procès est prévu cette année.
Une audience sur la décision provisoire est normalement prévue ce jeudi à San Jose, au cours de laquelle les avocats de Tesla pourront tenter de persuader la juge de changer d'avis. Mais selon les analystes, il est peu probable que les avocats de Tesla arrivent à leur fin. La famille affirme que le système Autopilot a mal fonctionné et a dirigé la voiture vers le terre-plein central. Mais le constructeur automobile soutient que l'ingénieur jouait à un jeu vidéo sur son téléphone avant l'accident et qu'il n'a pas tenu compte des avertissements du véhicule. Cette recommandation contraste fortement avec les déclarations de Musk et certaines publicités de Tesla.
Tesla affirme que les mains de la victime n'ont pas été détectées sur le volant à plusieurs reprises au cours des 19 minutes précédant l'accident, au cours desquelles le système Autopilot a émis deux alertes visuelles et une alerte sonore pour la conduite sans les mains. Il faut rappeler qu'une enquête du National Transportation Safety Board (NTSB) a confirmé que Huang jouait au jeu vidéo Three Kingdoms sur son téléphone au moment de l'accident. Les avocats de la famille Huang ont demandé à Tesla de leur fournir des documents confirmant les nombreuses déclarations publiques faites par Musk entre 2014 et 2017, mais ils n'ont pas obtenu gain de cause.
Certaines de ces déclarations ont été citées dans de récentes actions en justice intentées par des consommateurs accusant Tesla de ne pas avoir tenu la promesse de longue date de Musk de produire une voiture entièrement autonome. La plupart accusent Musk et Tesla de publicité mensongère et réclament des sanctions adéquates. Les avocats de la famille Huang ont fait valoir que Tesla n'avait pas répondu de manière adéquate à leurs demandes d'informations au cours de la procédure de découverte avant le procès. Ils ont demandé au juge de sanctionner l'entreprise, mais la juge Pennypacker a rejeté cette demande dans sa décision de mercredi.
Par ailleurs, l'argument des avocats de Tesla contraste avec de récentes révélations sur l'origine de la vidéo. Au début de l'année, des courriels ont révélé que Musk a supervisé personnellement la mise en scène de la vidéo sur la technologie de conduite autonome de Tesla visant à faire croire qu'une voiture Tesla pouvait se conduire toute seule. Des courriels de l'époque révèlent que Musk a même dicté le titre d'ouverture de la vidéo qui prétendait que la voiture se conduisait toute seule. Il aurait dit aux ingénieurs qu'"ils n'étaient pas tenus de coder en dur toutes les étapes de la fonction de conduite autonome juste pour les besoins de ladite vidéo".
En juillet dernier, le département des véhicules à moteur (DMV) de Californie a accusé Tesla de faire de la publicité mensongère pour ses systèmes, ce qu'une poignée de clients de Tesla ont également allégué dans un procès intenté en septembre contre la société. En outre, la National Highway Traffic Safety Administration des États-Unis enquête activement sur deux accidents liés au système Autopilot. Tesla pourrait également faire l'objet d'une enquête criminelle de la part du ministère américain de la Justice concernant ses affirmations sur l'Autopilot. Ces déclarations et les noms Autopilot et Full Self-Driving sont considérés comme trompeurs.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'argument des avocats de Tesla ?
Que pensez-vous de la décision de la juge de faire témoigner Musk sous serment ?
Que peut-on attendre de ce procès ?
Tesla sera-t-il obligé de changer les noms Autopilot et Full Self-Driving ?
Voir aussi
Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur la technologie de conduite autonome de Tesla visant à faire croire qu'une voiture Tesla pouvait se conduire toute seule
Un ingénieur Tesla témoigne que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée, pendant un procès impliquant la mort d'un individu suite aux erreurs d'Autopilot
Les rapports évoquant un « freinage fantôme » des Tesla qui détectent des « incidents imaginaires » se multiplient : une Tesla en mode Full Self-Driving freine brusquement, entraînant un carambolage
Après une mise à jour du "Full Self-Driving", une Tesla détecte un piéton en train de traverser et choisit de ne pas ralentir
contrairement à ce que le système faisait dans une version précédente
Tesla a publié une nouvelle version de son controversé logiciel «Full Self-Driving Beta» le mois dernier. Parmi les mises à jour de la version 11.4, il y a de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter le week-end dernier montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.
La vidéo a été postée par le compte Whole Mars Catalog, un compte pro-Tesla très populaire avec plus de 300 000 abonnés. Le tweet, qui a été vu 1,7 million de fois, comportait un clip vidéo de sept secondes avec le texte suivant :
« L’une des choses les plus optimistes / excitantes que j’ai vues sur Tesla Full Self-Driving Beta 11.4.1. Il a détecté le piéton, mais au lieu de freiner brusquement, il a simplement continué comme un humain le ferait en sachant qu’il y avait assez de temps pour le faire ».
La personne qui a posté la vidéo a ensuite précisé qu’elle avait été filmée à San Francisco et que quiconque n’était pas d’accord avec ce comportement de conduite devait être ignorant de la vie urbaine :One of the most bullish / exciting things I've seen on Tesla Full Self-Driving Beta 11.4.1.
— Whole Mars Catalog (@WholeMarsBlog) May 14, 2023
It detected the pedestrian, but rather than slamming on the brakes it just proceeded through like a human would knowing there was enough time to do so. pic.twitter.com/8GISp4jYGp
Dans les commentaires cependant, les personnes assurant vivre dans les grandes villes n'étaient pas unanimes quant à ce comportement de la voiture qui n'a pas besoin de s'arrêter pour que les piétons empruntent le passage qui leur est réservé.Envoyé par Whole Mars Catalogue
La plupart des systèmes de conduite partiellement automatisés comme le Super Cruise de General Motors ou le BlueCruise de Ford sont géorestreints à un domaine opérationnel contrôlé (généralement des autoroutes à accès limité et à voies séparées). Tesla a adopté une approche différente et permet aux utilisateurs de tester son logiciel FSD beta sur les rues en surface.
Tout le monde n’est pas aussi à l’aise avec le fait que les conducteurs de Tesla testent des logiciels inachevés autour d’autres usagers de la route. En février, la National Highway Traffic Safety Administration (NHTSA) a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.
L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.
La mise à jour de la version 11.4 en avril était censée améliorer le comportement des voitures, mais il y a maintenant plus de preuves que la bêta FSD conduit toujours Tesla à enfreindre le code de la route. La section 7 du manuel du conducteur de Californie, qui traite des lois et des règles de la route, stipule que les piétons sont considérés comme des usagers de la route vulnérables et que « les piétons ont la priorité sur les passages pour piétons marqués ou non. S'il y a une limite avant le passage pour piétons, arrêtez-vous à la limite et laissez les piétons traverser la rue. »
Ce n'est pas non plus la première fois que le logiciel de Tesla est programmé pour enfreindre le code de la route.
Des accidents impliquant le « Full Self-Driving » de Tesla
Le « Full Self-Driving » de Tesla n’est pas sans risques. Les véhicules Tesla utilisant son système d'assistance à la conduite Autopilot ont été impliqués dans 273 accidents connus de juillet 2021 à juin de l'année dernière, selon les données de la NHTSA. Tesla représentait près de 70 % des 329 accidents dans lesquels des systèmes avancés d'assistance à la conduite étaient impliqués, ainsi qu'une majorité de décès et de blessures graves qui leur sont associés, selon les données. Depuis 2016, l'agence fédérale a enquêté sur un total de 35 accidents dans lesquels les systèmes "Full Self-Driving" ou "Autopilot" de Tesla étaient probablement utilisés. Ensemble, ces accidents ont conduit à la mort de 19 personnes.
Pour ceux qui se demandent quelle est la différence entre Autopilot et Full Self-Driving, voici quelques points clefs :
- Tesla Autopilot est un système d'aide à la conduite conçu pour la conduite sur autoroute. Full Self-Driving (FSD) est le système (supposé) entièrement autonome de Tesla conçu pour la conduite urbaine ;
- Autopilot est un système d'assistance à la conduite. Il utilise des capteurs et des caméras pour aider le conducteur à rester dans sa voie, à changer automatiquement de voie, à tourner dans les virages et à s'arrêter en toute sécurité en cas d'urgence. Autopilot peut également garer votre véhicule ou vous l'amener depuis une place de stationnement ;
- FSD fonctionne sur toutes les routes dans toutes les conditions (sur le papier), de jour comme de nuit. Il ne nécessite aucune intervention de votre part pour se conduire, mais il a besoin que vous soyez prêt à tout ce qui pourrait arriver, car il vous alertera si quelque chose se produit de manière inattendue afin que vous puissiez prendre le contrôle de votre véhicule si nécessaire ;
- FSD est une fonctionnalité plus récente qui vous permet de conduire votre voiture en mode mains libres. Il comprend la direction automatique améliorée, où vous pouvez définir une destination et la voiture vous y conduira automatiquement ;
- Autopilot est livré avec chaque Tesla et peut être utilisé directement. FSD est une mise à niveau de 15 000 $ disponible uniquement aux États-Unis et n'est actuellement pas légale.
Ces derniers mois, une vague de rapports est apparue dans laquelle les conducteurs de Tesla se sont plaints d'un « freinage fantôme » soudain lorsque le véhicule est à grande vitesse, provoquant presque des accidents dans de nombreux cas. Plus de 100 plaintes de ce type ont été déposées auprès de la NHTSA en trois mois, selon le Washington Post.
Le quotidien explique :
Source : manuel du conducteur de CalifornieTesla freine de manière inattendue en réponse à des dangers imaginaires – tels que la circulation venant en sens inverse sur des routes à deux voies – ce qui a incité leurs propriétaires terrifiés à déposer une vague de plaintes auprès de la National Highway Traffic Safety Administration au cours des trois derniers mois, selon une analyse du Washington Post des données fédérales sur la sécurité automobile.
Le phénomène, connu sous le nom de « freinage fantôme », est un problème persistant pour les véhicules Tesla.
Le constructeur automobile a été contraint de rappeler une version de son logiciel Full Self-Driving en octobre en raison de faux positifs de son système de freinage d'urgence automatique qui, selon lui, ont été déclenchés par la mise à jour logicielle. Les plaintes ont grimpé en flèche après le rappel et restent élevées, signalant l'inquiétude continue des propriétaires.
Les rapports de propriétaires de freinage fantôme à la NHTSA sont passés à 107 plaintes au cours des trois derniers mois, contre seulement 34 au cours des 22 mois précédents.
Et vous ?
Pensez-vous que le « Full Self-Driving » de Tesla soit une technologie sûre et fiable ? Un danger pour les piétons ?
Quelles sont les responsabilités des conducteurs de Tesla qui utilisent le « Full Self-Driving » sur les routes publiques ?
Quelles sont les mesures que les régulateurs devraient prendre pour encadrer le développement et le déploiement du « Full Self-Driving » de Tesla ?
Quels sont les avantages et les inconvénients du « Full Self-Driving » de Tesla par rapport aux autres systèmes de conduite partiellement automatisés ?
Dans la prochaine version, il est prévu une franche accélération lors de la détection du piéton !!!!
heureusement une fois que l'on a passé le permis notre cerveau ne se met pas à jour sans arrêt OTA.
Leur full machin truc devient un gag digne du premier avril
"Ne pas céder le passage à un piéton est une infraction entraînant la perte de 6 points sur le permis de conduire ainsi qu'une amende de 135 euros.
Il est précisé dans l'article R415-11 du code de la route qu'il est obligatoire de céder le passage à un piéton régulièrement engagé sur la chaussée."
L'état Français est très content pour ses finances du nouvel algorithme
L'étape prochaine c'est l'ionisation du piéton avant l'impact (beaucoup plus propre) et ça plaira aux technophiles.
Sur un autre fil de discussion où l'on reproche la mise à disposition au grand public de chatgpt en version beta, je peux comparer avec le full self driving de Tesla également en version beta depuis au moins 5 ans maintenant et responsable de dizaines d'accidents. Au moins chatgpt ne tue personne, lui.
Comment peut on marcher de manière dangereuse derrière une voiture qui avance?Auparavant, lorsqu'un piéton entrait dans le passage pour piétons, FSD Beta freinait au milieu du passage pour piétons. Le piéton devait alors marcher de manière dangereuse derrière la voiture et risquait de la percuter s'il marchait / faisait du vélo rapidement. C'est en fait moins sûr, pas plus sûr.
Comment peut on percuter une voiture qui avance en marchant derrière?
J'ai par exemple le reflexe de toujours traverser derrière une voiture parce que c'est la situation la moins dangereuse.
Si je passe devant une voiture, elle peut accélérer et me renverser ou me mettre un coup de pression.
Si je passe derrière, le chauffeur doit enclencher la marche arrière puis accélérer ce qui prend un certains temps et me laisse largement le temps de réagir.
Je ne comprends pas à quel moment ne pas ralentir est une manoeuvre de sécurité, au pire en ralentissant le choc se fait à plus faible vitesse et est donc moins risqué.
Donc je suis bien d'accord avec le chauffeur, en tant qu'étranger je ne peux pas comprendre quand ne pas ralentir est plus sécurisant que de freiner. Et pourtant je suis j'ai vécu principalement en ville.
L'important est le « régulièrement ». Autrement dit : En suivant la règle.Il est précisé dans l'article R415-11 du code de la route qu'il est obligatoire de céder le passage à un piéton régulièrement engagé sur la chaussée.
Donc, c'est dans un passage pour piétons, en respectant les éventuels feux de circulation. Sinon, ce n'est pas régulier.
Ce qui ne suppose pas qu'en dehors de ces cas on a le droit de rouler sur le piéton. Mais ça dit simplement que sa priorité est liée à un cadre précis.
Présentement au Québec depuis la dernière mise à jour il y a énormément d'accident aux feu rouges. Les Tesla ne détectent plus la voiture arrêté en avant d'eux, et quand la lumière repassent au vert elles foncent dedans.
Dans le code de la route, le piéton est prioritaire sur le cycliste, qui lui-même est prioritaire sur le conducteur de voiture qui doit toujours avoir la maîtrise de son véhicule. Et depuis peu, la voiture doit céder le passage à un piéton qui va s'engager à traverser sur un passage piéton. Les seuls exceptions à ces règles sont les véhicules de pompier, de police et d'ambulances.
Ce n'est pas récent c'était déjà le cas quand j'ai passé mon permis, il y a 20 ans maintenant.
Et je penses même que c'est le cas en dehors des passages piétons.
Ceci dit ça soulève aussi une question importante : une IA de conduite doit elle plus s'adapter au code de la route ou éviter les accidents et donc s'adapter à certaines habitudes locales?
Ma position aujourd'hui est relativement simple : avançons pas à pas, on est à 1000 lieues de l'IA de conduite en toute situation donc commençons par les environements faciles (pas la ville) et aux risques maitrisés (pas les zones à vitesse rapide en période fluide).
Toujours ?
Ben... Je ne crois pas.
Si un piéton attend au feu pour traverser, il n'est pas prioritaire. Car il doit se conformer aux feux de signalisation.
Et je suis d'accord que si on en percute un qui traverse en dehors des passages pour piétons, on est responsable de l'accident (obligation de maîtrise de son véhicule, mais pas de ses jambes !), à moins de force majeure (piéton qui surgit devant le véhicule). Ce n'est pas ce qu'on appelle une priorité.
Bonjour. Je suis tout à fait d'accord. Nous avons nous-mêmes parfois du mal à nous adapter à la route, sans parler de l'IA. Aux carrefours sans feux de signalisation, j'attends toujours que l'automobiliste s'arrête, et laissez-moi vous dire, dans une petite ville, que 20 % d'entre eux s'arrêtent seulement, les autres conduisent.
Un lanceur d’alerte fournit à un site d’information allemand 100 Go de données liées aux secrets de Tesla,
Selon le journal allemand, Tesla préfère se protéger au lieu de faire face aux milliers de plaintes concernant le pilote automatique
Depuis hier, le quotidien allemand Handelsblatt fait parler de lui après avoir révélé le contenu de plus de 23 000 fichiers (100 giga-octets de données) qui proviendraient du système informatique de Tesla. Selon les informations contenues dans ces fichiers, les clients des véhicules Tesla auraient fait part de nombreuses plaintes au sujet de la conduite dangereuse du pilote automatique. Toutefois, au lieu de chercher à régler le problème rapporté par ses clients, le média allemand rapporte que les données obtenues anonymement montrent que l’entreprise aurait plutôt tendance à se protéger d'éventuelles attaques juridiques.
Selon le journal allemand, les fichiers de Tesla contiennent plus de 2 400 plaintes d’autoaccélération et plus de 1 500 problèmes de fonction de freinage, dont 139 cas de freinage d’urgence involontaire et 383 arrêts fantômes signalés résultant de faux avertissements de collision. Le nombre de plantages est supérieur à 1000. Un tableau des incidents impliquant des systèmes d’assistance à la conduite où les clients ont exprimé des problèmes de sécurité compte plus de 3000 entrées. Les fichiers comprennent également des tableaux contenant plus de 100 000 noms d’anciens et actuels employés, y compris le numéro de sécurité sociale du chef de la direction de Tesla, Elon Musk, ainsi que des adresses e-mail privées, des numéros de téléphone, salaires des employés, coordonnées bancaires des clients et détails secrets de la production. Les plaintes les plus anciennes dont dispose le Handelsblatt datent de 2015, la plus récente de mars 2022. Au cours de cette période, Tesla a livré environ 2,6 millions de véhicules avec le logiciel pilote automatique. La plupart des incidents ont eu lieu aux États-Unis, mais il y a aussi des plaintes de l’Europe et de l’Asie dans les documents — y compris de nombreux conducteurs allemands de Tesla. Le journal Handelsblatt a contacté des dizaines de clients de plusieurs pays. Tous ont confirmé les informations des fichiers Tesla. Au cours des discussions, ils ont donné un aperçu de leurs expériences avec le pilote automatique. Certains ont révélé leur communication avec le constructeur automobile américain, d’autres ont montré des vidéos de l’accident des journalistes de Handelsblatt. Comment l’entreprise a-t-elle traité les plaintes ?
Les fichiers Tesla fournissent également des informations à ce sujet. Ils montrent que les employés ont des directives précises pour communiquer avec les clients. La priorité absolue est évidemment : offrir le moins de surface d’attaque possible. « Pour chaque incident, il existe des puces pour l’examen technique ». Les employés qui entrent dans le système de cet examen indiquent régulièrement que le rapport est « pour un usage interne uniquement ». Chaque entrée contient également une note en caractères gras selon laquelle les informations, le cas échéant, ne peuvent être transmises que « verbalement au client ». « Ne copiez pas et ne collez pas le rapport ci-dessous dans un e-mail, un SMS ou ne le laissez pas dans une messagerie vocale au client », a-t-il déclaré. Les données du véhicule ne doivent pas non plus être publiées sans autorisation. Si, malgré les conseils, « une implication d’un avocat ne peut être empêchée », cela doit être enregistré. Les clients à qui Handelsblatt a parlé ont l’impression que les employés de Tesla évitent la communication écrite. « Ils n’ont jamais envoyé de courriels, tout a toujours été verbal », déclare le médecin californien, dont la Tesla avait accéléré d’un coup à l’automne 2021 et s’était écrasée contre deux piliers en béton.
Steve Wozniak, le cofondateur d’Apple qui a possédé plusieurs modèles de Tesla déclare également avoir fait les frais de ce pilote automatique qui a eu un comportement dangereux à plusieurs reprises. Sur une autoroute par exemple, il rapporte que la voiture a freiné de 120 km/h à 40 km/h sur une autoroute « sans rien autour, pas de voitures, rien du tout ». Heureusement pour lui, il n’y avait pas non plus d’obstacles derrière lui, sinon il aurait pu provoquer un accident. C’est pourquoi il s’est montré très amer au mois de mai dernier lorsqu’il a été interrogé sur l’intelligence artificielle qui soutient ce système de conduite autonome des véhicules Tesla. Steve Wozniak n’y est pas allé de main morte et a vertement fustigé la conduite autonome mise en avant par l’entreprise d’Elon Musk. Selon le cofondateur d’Apple, l’IA des véhicules Tesla essayera de vous tuer dès qu’elle en a l’occasion. Jeremy Banner, un conducteur d’un véhicule Tesla modèle 3 n’a pas eu la même chance que Wozniak et a heurté un camion-tracteur en combinaison avec une semi-remorque sur l’autoroute 441 à Delray Beach, Palm Beach County, en Floride au mois de au mars 2019. Selon le rapport d’enquête du NTSB, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, avait activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant. La voiture est alors passée sous la semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.
Malgré ces rapports et les plaintes des utilisateurs concernant la conduite entièrement autonome (abrégé FSD en anglais) des véhicules Tesla, l’entreprise n’a pas manqué de mettre ce système à la disposition du public en version bêta depuis le mois de novembre dernier. Il faut souligner qu’une fois activé, ce système active toutes les fonctionnalités fournies avec les fonctionnalités de pilote automatique et de pilote automatique amélioré de Tesla, y compris les changements de voie automatiques, l’autoguidage, le stationnement automatique, etc. Pour éviter des pertes en vies humaines ainsi que des dégâts matériels, la National Highway Traffic Safety Administration a commencé à mener des investigations dans le logiciel FSD de Tesla en janvier après que le PDG de Tesla, Elon Musk, a tweeté que la société donnerait aux utilisateurs la possibilité de désactiver le volant de direction. Environ un mois plus tard, l’agence a considéré que cette possibilité de désactiver le volant de direction constituait un risque de collision, ce qui a conduit au rappel de 362 758 voitures équipées de FSD et mis un coup d’arrêt au déploiement du FSD dans les véhicules.
Après avoir pris connaissance des documents liés à Tesla, Sebastian Matthes, le rédacteur en chef de Handelsblatt, aurait contacté Tesla pour avoir les commentaires de l’entreprise au sujet des informations contenues dans ces fichiers. Selon Matthes, au lieu de répondre aux questions du quotidien, Tesla a plutôt « demandé que les données soient supprimées et a parlé de vol de données ». En outre, Tesla aurait tenté d’empêcher la publication d’utiliser de ces données en menaçant le quotidien de poursuites judiciaires. La publication a toutefois décidé qu’il s’agissait d’une des circonstances extraordinaires dans lesquelles le signalement d’une telle violation de données serait légal en vertu du droit de l’Union européenne.
En étant donné qu’une grande quantité de données des utilisateurs contenues dans ces fichiers a également fuité, les autorités allemandes examinent cette affaire pour voir s’il n’y a pas eu de violation de la protection des données par Tela.
Source : Handelsblatt (abonnement obligatoire)
Et vous ?
Que pensez-vous des informations divulguées par Handelsblatt ? Fake ? Ou authentique ?
Selon vous, les plaintes contre l’autopilote des véhicules Tesla sont-elles fondées ?
Avez-vous déjà été témoin du comportement dangereux de l’autopilote de Tesla ? Comment avez-vous géré la situation ?
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager