1 pièce(s) jointe(s)
Malgré un accident, un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du FSD
Un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du Full Self-Driving,
même après avoir eu un accident alors qu'il utilisait Autopilot
Le conducteur de Tesla, Dave Key, n'a pas tardé à défendre le logiciel d'assistance à la conduite du constructeur de voitures électriques, même des années après avoir eu un accident en utilisant Autopilot, selon un récent rapport du New York Times.
L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.
Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.
Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.
L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.
Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.
Citation:
Envoyé par New York Times
Pendant que nous roulions, Key a comparé FSD à l'Autopilot qui était sur sa Tesla de 2015. Autopilot, a-t-il dit, était comme un régulateur de vitesse sophistiqué : vitesse, direction, évitement des collisions. Bien que dans son cas, il ait dit : « Je suppose que cela n'a pas vraiment permis d'éviter les accidents ». Il avait été bien plus impressionné par le FSD. Il était capable de gérer à peu près toutes les situations qu'il lui présentait. « Mon seul vrai reproche est qu'il ne sélectionne pas toujours la voie que je choisirais ».
Au bout d'une minute, la voiture avertit Key de garder les mains sur le volant et les yeux sur la route. « Tesla est maintenant une sorte de nounou à ce sujet », s'est-il plaint. Si Autopilot était autrefois dangereusement permissif envers les conducteurs inattentifs – leur permettant même de s'endormir derrière le volant – cette faille, comme le bogue de l'objet stationnaire, avait été corrigée. « Entre le volant et le suivi des yeux, c'est juste un problème résolu », a déclaré Key(...).
Key avait apporté des notes, qui tenaient sur quatre pages, qu'il avait rédigées pour notre entretien, énumérant les faits sur les accidents, organisés en sous-titres tels que Tesla Full Self-Driving Technology (Discussion). C'est le genre d'homme qui se promène avec une batterie d'opinions bien formées sur les sujets les plus importants de la vie - ordinateurs, logiciels, exercice, argent - et une volonté de les partager. Il tenait particulièrement à ce que je comprenne que l'Autopilot et le FSD sauvaient des vies : « les données montrent que leur taux d'accidents pendant la bêta est bien inférieur à celui des autres voitures », lit-on dans ses notes. « Ralentir le [développement de la] bêta FSD entraînera plus d'accidents et de pertes de vie sur la base de données statistiques solides.
Des accidents comme le sien – et même les plus mortels – sont malheureux, a-t-il soutenu, mais ils ne pouvaient pas détourner la société de l'objectif plus large d'une adoption généralisée des véhicules autonomes. Key a fait une analogie avec les vaccins contre le coronavirus, qui ont empêché des centaines de milliers de décès, mais ont également causé de rares décès et blessures dus à des effets indésirables. « En tant que société », a-t-il conclu, « nous choisissons la voie pour sauver le plus de vies ».
Depuis la sortie d'Autopilot en octobre 2015, Musk a encouragé les conducteurs à le considérer comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre de la même année, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».
Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).
Tesla fait face à plusieurs plaintes
Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».
Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.
En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.
Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».
Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.
« La raison de votre accident ou la raison de votre incident retombe toujours sur vous »
Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.
Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.
En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.
Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.
Source : The New York Times Magazine
Et vous ?
:fleche: Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
:fleche: « La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur l'Autopilot de Tesla
Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur la technologie de conduite autonome de Tesla
visant à faire croire qu'une voiture Tesla pouvait se conduire toute seule
Elon Musk, PDG de Tesla, aurait supervisé une vidéo de 2016 qui exagérait les capacités de l'Autopilot, le système d'aide à la conduite du constructeur automobile. Des courriels de l'époque révèlent que Musk a même dicté le titre d'ouverture de la vidéo qui prétendait que la voiture se conduisait toute seule. Il aurait dit aux ingénieurs qu'"ils n'étaient pas tenus de coder en dur toutes les étapes de la fonction de conduite autonome juste pour les besoins de ladite vidéo". La déposition d'un ingénieur a révélé la semaine dernière que la voiture ne se conduisait pas toute seule et qu'elle suivait plutôt un itinéraire prédéterminé sur une carte haute définition.
S'il subsistait un doute sur le fait que Musk savait que la vidéo sur la démonstration de l'Autopilot de Tesla en 2016 était une mise en scène, il vient peut-être d'être dissipé. Bloomberg dit avoir eu accès à des emails internes de Tesla qui révèlent que Musk a lui-même supervisé la supercherie. « Je veux juste être absolument clair sur le fait que la priorité absolue de tout le monde est de réaliser une incroyable démonstration de la conduite de l'Autopilot. Vu qu'il s'agit d'une démo, il n'y a pas de problème à coder en dur une partie de celle-ci, puisque nous la compléterons avec du code de production plus tard dans une mise à jour OTA », a dit Musk dans un courriel.
Musk a publié un billet de blogue sur le site Web de Tesla la veille de la diffusion de la vidéo, le 19 octobre. Dedans, il indiquait que toutes les voitures Tesla seraient livrées à partir de ce jour avec le matériel nécessaire à une capacité de conduite autonome complète. Dans les courriels qu'il a envoyés à son personnel ce mois-là, il a souligné l'importance d'une démonstration pour promouvoir le système. Musk n'a pas vu d'inconvénient à cette stratégie : « je vais dire au monde que c'est ce que la voiture *va* pouvoir faire, et non ce qu'elle peut le faire dès la réception », a-t-il écrit. Malgré ces propos, la vidéo n'a pas fait preuve de clarté lorsqu'elle a été publiée.
Les emails internes montrent que Musk lui-même a demandé à l'équipe Autopilot d'ouvrir la vidéo avec les mots : « la personne sur le siège du conducteur n'est là que pour des raisons juridiques. Elle ne fait rien du tout. La voiture se conduit toute seule ». Puis, lorsque Musk a fait la promotion de la vidéo sur Twitter, il a écrit : « Tesla se conduit toute seule (sans aucune intervention humaine) à travers les rues urbaines, l'autoroute et les rues, puis trouve une place de stationnement ». Et lorsque la technologie a été mise à la disposition des conducteurs de Tesla trois ans plus tard, le résultat a été plutôt décevant, car le système a eu du mal à naviguer tout seul.
Ces nouvelles révélations ont suscité un tollé sur la toile, plusieurs internautes reprochant à Tesla de les avoir menés en bateau depuis au moins 2016. Tesla savait que ses voitures ne pouvaient pas se conduire toutes seules, mais a pourtant présenté les choses comme telles. Selon ses propres employés, Tesla aurait dû le révéler afin de ne pas induire les clients en erreur en leur faisant croire que sa technologie était plus avancée qu'elle ne l'était. « Tesla aurait également pu mentionner que, lors du tournage de la vidéo, le Model X s'est écrasé contre une clôture », a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, qui a donné des détails sur la vidéo.
La déposition d'Elluswamy a été prise comme preuve dans un procès contre Tesla pour un accident mortel de 2018 impliquant l'ancien ingénieur d'Apple Walter Huang. Le procès allègue que les erreurs de l'Autopilot, et la confiance mal placée de Huang dans les capacités du système ont causé l'accident. Des agences fédérales et d'État, ainsi que des clients ont également reproché à Tesla de promouvoir à tort les capacités de ses systèmes d'aide à la conduite l'Autopilot et le Full Self-Driving (qui n'est pas du tout ce que son nom semble vouloir indiquer). En fait, Tesla conseille à ses conducteurs de rester vigilants et concentrés lorsque les systèmes sont activés.
En juillet dernier, le département des véhicules à moteur (DMV) de Californie a accusé Tesla de faire de la publicité mensongère pour ses systèmes, ce qu'une poignée de clients de Tesla ont également allégué dans un procès intenté en septembre contre la société. En outre, la National Highway Traffic Safety Administration des États-Unis enquête activement sur deux accidents liés au système Autopilot. Tesla pourrait également faire l'objet d'une enquête criminelle de la part du ministère américain de la Justice concernant ses affirmations sur la conduite autonome. Ces déclarations, et même les noms Autopilot et Full Self-Driving, sont considérées comme trompeuses.
En 2019, les analystes ont découvert que les affirmations répétées de l'entreprise selon lesquelles l'Autopilot réduisait les accidents d'environ 40 % étaient fausses, et qu'en fait, le système pourrait avoir augmenté les accidents de 59 %. La même année, la NHTSA a dû dire à Tesla qu'il trompait les clients en affirmant que l'agence avait qualifié la Tesla Model 3 de voiture la plus sûre qu'elle ait jamais testée. Face aux allégations, Tesla s'est défendu dans une motion de novembre visant à rejeter la plainte de clients qui le poursuivent pour marketing mensonger. Il a déclaré : « notre incapacité à réaliser un objectif ambitieux à long terme n'est pas une fraude ».
Dans une conversation sur Twitter Spaces en décembre, l'entreprise a déclaré que son avantage sur les autres constructeurs automobiles, alors qu'elle vise à résoudre le problème de la conduite autonome complète, est que "la voiture Tesla est évolutive vers l'autonomie, ce qu'aucun autre constructeur automobile ne peut faire". Ce qui reste à prouver. Dans des conditions réelles, les performances de l'Autopilot et de sa version améliorée, le Full Self-Driving, restent médiocres. La NHTSA a ouvert plusieurs enquêtes pour déterminer si ces systèmes sont sûrs, notamment à la suite de centaines de signalements de comportements de freinage fantôme.
Une autre de la NHTSA cherche à savoir si les voitures Tesla sont capables de détecter la présence de motocyclistes après qu'au moins deux motocyclistes ont été tués après avoir été percutés par des Teslas. L'agence enquête également sur la propension des voitures Tesla à percuter des véhicules d'urgence. La société peut également faire face à des poursuites pénales. Le fait de tromper intentionnellement ses investisseurs ou ses clients reste un crime aux États-Unis, et les procureurs fédéraux ont cherché à savoir si les nombreuses affirmations de Tesla et de Musk concernant ces systèmes d'aide à la conduite répondaient à cette exigence.
Le témoignage d'Elluswamy n'aide sûrement pas Tesla. Et l'implication directe de Musk dans la vidéo et la promotion subséquente de la capacité des véhicules Tesla à se conduire eux-mêmes surviennent à un moment où la réputation et la fiabilité du dirigeant sont de plus en plus remises en cause. En plus de ses distractions sur Twitter, Musk a également promis, lors de la conférence téléphonique avec les investisseurs de Tesla au le troisième trimestre, que la société connaîtrait "une fin d'année épique", mais Tesla a fini par manquer les estimations concernant les livraisons du quatrième trimestre. En plus de cela, l'action de la société a chuté de 65 % en 2022.
Musk est jugé actuellement aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla. Le jury est chargé de déterminer si le tweet a trompé ou non les investisseurs. En effet, le rachat ne s'est jamais concrétisé, mais à l'époque, le tweet de Musk avait alimenté une hausse du prix de l'action Tesla qui s'est brusquement terminée une semaine plus tard, lorsqu'il est apparu qu'il n'avait pas les fonds nécessaires pour un rachat. Peu après, la valeur des actions a grimpé en flèche, ce qui a fait de Musk la personne la plus riche du monde jusqu'à ce qu'il rachète Twitter à la fin du mois d'octobre 2022.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Selon vous, quelles sanctions pourraient encourir Musk et Tesla dans cette affaire ?
:fleche: Que pensez-vous des controverses entourant Musk ? Nuit-il à l'image de ses entreprises ?
:fleche: Selon vous, Musk a-t-il fait son temps à la tête de Tesla ? Doit-il passer le flambeau à un nouveau PDG ?
:fleche: Quelles comparaisons faites-vous entre le système Autopilot de Tesla et les systèmes concurrents ?
Voir aussi
:fleche: Elon Musk est jugé aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla, il perdra le procès si le tweet est reconnu comme "trompeur"
:fleche: Elon Musk : « Ce n'est pas parce que je tweete quelque chose que les gens y croient », dans un procès suite à un de ses tweets de 2018 qui aurait coûté des millions de dollars aux investisseurs Tesla
:fleche: Les investisseurs concluent que Tesla est un constructeur automobile et non une entreprise technologique, l'achat de Twitter par Elon Musk a précipité la chute de l'action Tesla qui a baissé de 71 %
Tesla rappelle 360 000 véhicules et affirme que la version bêta du FSD peut provoquer des accidents
Tesla rappelle plus de 360 000 véhicules et affirme que la version bêta du Full Self-Driving peut provoquer des accidents
le logiciel de Tesla agit parfois de manière dangereuse aux intersections
Tesla a annoncé cette semaine qu'elle rappelait certains véhicules équipés du logiciel Full Self-Driving Beta (FSD Beta) ou ceux en attente d'installation. Le rappel, qui a été publié sur le site Web de la National Highway Traffic Safety Administration (NHTSA), touche jusqu'à 362 758 véhicules équipés du logiciel. Tesla fournira une mise à jour logicielle automatique (over-the-air) aux voitures pour résoudre les problèmes. L'avis de rappel explique que les problèmes de sécurité du logiciel de Tesla peuvent entrainer des comportements dangereux aux intersections, ce qui peut causer des accidents. Le FSD peut également avoir un problème avec les limites de vitesse.
Les véhicules Tesla sont équipés de série d'un système d'aide à la conduite baptisé Autopilot. Pour 15 000 dollars de plus, les propriétaires peuvent acheter le système avancé Full Self-Driving (FSD), une fonction que le PDG Elon Musk promet depuis des années et qui offrira un jour des capacités de conduite autonome complètes. En attendant, il est important de garder à l'esprit que les véhicules Tesla ne sont pas des véhicules à conduite autonome et que le FSD est toujours en version bêta. Le FSD comprend un certain nombre de fonctions de conduite automatisée qui nécessitent que le conducteur soit prêt à prendre le contrôle à tout moment.
Il comprend la fonction de stationnement Summon, ainsi que Navigate on Autopilot, un système de de guidage actif qui dirige une voiture d'une bretelle d'autoroute à une bretelle de sortie, y compris les échangeurs et les changements de voie. Le système est également censé gérer la direction dans les rues de la ville et reconnaître et réagir aux feux de circulation et aux panneaux d'arrêt. Mais selon l'avis de rappel, le système comporte de graves problèmes de sécurité qui peuvent mettre la vie des conducteurs en danger. Le rappel concerne un total de 362 758 véhicules, dont certains Model 3, Model X, Model Y et Model S fabriqués entre 2016 et 2023.
« La version bêta du FSD peut provoquer des accidents en permettant aux véhicules concernés de : agir de manière dangereuse aux intersections, par exemple en traversant une intersection alors qu'ils sont dans une voie réservée aux virages, en s'engageant dans une intersection contrôlée par un panneau d'arrêt sans s'arrêter complètement, ou en s'engageant dans une intersection pendant un feu de circulation jaune fixe sans prendre les précautions nécessaires. Le système peut également avoir des difficultés à répondre de manière appropriée aux changements des limites de vitesse affichées », selon l'avis publié sur le site Web de la NHTSA.
L'avis publié par la NHTSA comprend une chronologie des événements ayant conduit au rappel. Le problème a été découvert lors de l'analyse technique et des tests du système par la NHTSA. La NHTSA a déclaré avoir constaté que, dans certaines situations, la fonction Autosteer on City Streets du constructeur de véhicules électriques entrainait un risque "déraisonnable" pour la sécurité des véhicules à moteur en raison d'un respect insuffisant des règles de sécurité routière. « Comme l'exige la loi et après des discussions avec la NHTSA, Tesla a lancé un rappel pour réparer ces défauts », a déclaré l'agence dans un communiqué envoyé aux médias.
Tesla a rencontré la NHTSA "à plusieurs reprises" au cours des jours suivants pour discuter des préoccupations de l'agence et des améliorations proposées par Tesla en réponse. « La NHTSA continuera à surveiller l'efficacité des mesures de rappel. Ce rappel cherche à répondre à un ensemble spécifique de préoccupations identifiées par l'agence », a déclaré la NHTSA. L'agence a toutefois ajouté que le rappel n'aborde pas toute la portée de l'enquête EA22-002 de la NHTSA sur l'Autopilot de Tesla et les systèmes de véhicules associés. Ainsi, le communiqué du responsable américain de la sécurité routière indique que cette enquête reste ouverte et active.
Musk et les adeptes de Tesla se sont opposés à l'utilisation du terme "rappel" pour décrire les défauts de sécurité ou les problèmes qui peuvent être corrigés avec une mise à jour logicielle livrée sur Internet sans fil. Jeudi, il a écrit sur Twitter : « le mot "rappel" pour une mise à jour logicielle automatique est anachronique et tout simplement faux ». Tesla permet à des milliers de conducteurs d'essayer des fonctions d'aide à la conduite nouvelles et inachevées sur les routes publiques des États-Unis par le biais du FSD. Il ne rend pas les voitures Tesla autonomes ni sûres à conduire sans un humain au volant prêt à freiner ou à braquer à tout moment.
Seuls les propriétaires de Tesla qui ont souscrit au système d'aide à la conduite FSD haut de gamme de l'entreprise dans leur voiture peuvent participer au programme FSD Beta. Les propriétaires e Tesla doivent obtenir un score élevé en matière de sécurité du conducteur, déterminé par le logiciel Tesla qui surveille leurs habitudes de conduite, et le conserver pour avoir accès au FSD Beta. La version bêta du FSD peut être résumée comme une foule de nouvelles fonctionnalités qui ne sont pas encore entièrement déboguées. Le logiciel est en version bêta perpétuelle depuis sa sortie sortie. La principale attraction est "l'autoguidage dans les rues de la ville".
Cette fonction permet à une Tesla de naviguer automatiquement, bien qu'imparfaitement, dans des environnements urbains complexes. Tesla n'a jamais révélé combien de personnes achètent ou souscrivent à l'option premium FSD. Lors du dernier appel pour l'annonce des résultats de la société, Musk a déclaré : « à l'heure actuelle, nous avons déployé la version bêta du Full Self-Driving - pour les rues des villes - à environ 400 000 clients en Amérique du Nord. Il s'agit d'une étape importante pour l'autonomie, car la version bêta du FSD est le seul moyen pour un consommateur de tester réellement la dernière autonomie alimentée par l'IA ».
Le FSD - malgré son nom et les promesses de Musk concernant ses capacités - fait l'objet de controverses, car il diffère de ce que prétend Musk sur les réseaux sociaux. Il a également attiré l'attention des régulateurs. En janvier, Tesla a révélé que le ministère américain de la Justice avait demandé des documents relatifs à Autopilot et au FSD. La NHTSA et les communications de Tesla affirment que le système est quelque chose de beaucoup plus simple : "une fonction d'assistance au conducteur de niveau 2 qui peut fournir une assistance au conducteur en matière de direction et de freinage/accélération dans certaines limites d'exploitation".
Le rapport de rappel de sécurité note que "le conducteur est responsable du fonctionnement du véhicule lorsque la fonction est activée et doit constamment superviser la fonction et intervenir (par exemple, diriger, freiner ou accélérer) si nécessaire pour maintenir un fonctionnement sûr du véhicule". Cela montre encore une fois que Tesla est dans une grande contradiction et que le nom de ses produits constitue une publicité mensongère. L'entreprise a déjà été condamnée dans certaines juridictions pour marketing mensonger. Les actions de Tesla ont chuté d'un peu plus de 1 % à l'annonce de la nouvelle, avant de se redresser rapidement.
Source : L'avis de rappel de la NHTSA des États-Unis (PDF)
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de problèmes détecter par la NHTSA sur le FSD ?
:fleche: Que pensez-vous de l'Autopilot et du FSD ? Ces logiciels améliorent-ils la conduite humaine ?
:fleche: Que dites-vous du FSD qui est toujours en version bêta ? Doit-on laisser les conducteurs tester un tel logiciel sur les routes publiques ?
Voir aussi
:fleche: Tesla rappelle les voitures présentant des défaillances de l'eMMC, et qualifie la pièce d'« article d'usure », ce qui n'est pas mentionné spécifiquement dans le manuel du propriétaire
:fleche: Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés
:fleche: Les États-Unis demandent à Tesla de rappeler 158 000 véhicules pour cause de panne d'écran tactile, le défaut de sécurité concerne les anciens véhicules Models S et X