2 pièce(s) jointe(s)
Elon Musk vient de réaliser que les voitures autonomes sont un véritable problème
Deux personnes sont tuées dans un accident d'une voiture Tesla, sans personne au volant, qui a percuté un arbre et a pris feu,
l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes de l'incendie
Les autorités texanes ont déclaré samedi soir que deux personnes ont trouvé la mort dans un accident de la route impliquant une voiture Tesla, dans la ville de Spring. La voiture s'est écrasée contre un arbre et s'est enflammée. Bien qu'il y avait deux personnes à bord de la Tesla, il semblerait qu'aucune d'entre elles n'était au volant lorsque le choc a eu lieu, et les pompiers auraient mis près de quatre heures pour éteindre le feu. La maîtrise de l'incendie a pris tout ce temps en raison des batteries (des batteries lithium-ion) de la voiture qui ne cessaient de raviver les flammes. Certains mettent en garde contre l'utilisation de ces batteries dans les avions ou dans l'espace.
L'Autopilot de Tesla serait à nouveau impliqué dans un accident
Les autorités de la ville de Spring au Texas ont déclaré samedi qu'une voiture Tesla a brulé pendant près de quatre heures, avec deux personnes à son bord. Les accidents impliquant des véhicules Tesla ne sont pas nouveaux, mais l'Autopilot, le système d'aide à la conduite de la société, est de plus en plus mis en accusation. La cause de l'accident, qui s'est produit samedi vers 21 heures (heure locale), fait l'objet d'une enquête, mais les personnes qui étaient présentes sur les lieux au moment de l'accident et les premiers observateurs pointent du doigt l'Autopilot. L'entreprise est accusée d'induire les gens en erreur avec sa publicité sur l'Autopilot.
En effet, selon l'agent Mark Herman du district 4 du comté de Harris, personne ne conduisait la voiture lorsque l'accident s'est produit. Il a déclaré aux médias qu'une personne a été retrouvée sur le siège du passager avant et une autre sur le siège arrière. Herman a déclaré que les autorités pensent que personne d'autre n'était dans la voiture et qu'elle s'est enflammée immédiatement. Il a ensuite ajouté qu'il pense que la voiture n'était pas conduite par une personne. La police a établi que le véhicule roulait à grande vitesse et n'a pas réussi à prendre un virage. Résultat, il a quitté la route et a heurté l'arbre.
Un parent d'une des victimes aurait confirmé qu'il n'était que deux dans la voiture. Selon les médias, il aurait identifié la personne sur le siège arrière comme étant le propriétaire de la voiture. En outre, les autorités ont également déclaré avoir utilisé plus de 113 000 litres (30 000 gallons) d'eau pour éteindre les flammes, car les batteries du véhicule n'arrêtaient pas de s'enflammer. Selon Herman, à un moment donné, les adjoints ont dû appeler Tesla pour leur demander comment éteindre le feu qui provenait chaque fois de la batterie. Il n'a pas indiqué si Tesla leur a été d'une quelconque aide.
Certaines personnes ont déclaré que les incendies de batterie lithium-ion ne sont pas facilement maîtrisables. « Habituellement, le mieux est de l'empêcher de se répandre et de le laisser s'épuiser », ont-ils déclaré. Pour d'autres, il faudrait éviter d'utiliser ou de transporter les appareils disposant de ce type de batterie dans les moyens de transport aérien ou dans les engins envoyés dans l'espace. « C'est pourquoi nous sommes complètement terrifiés par les batteries au lithium-ion dans le ciel. Des choses comme les stylos Vape, les concentrateurs d'oxygène portables, les sacs intelligents, les ordinateurs portables contrefaits et le Note Phone qui a explosé », ont-ils déclaré.
L'enquête est toujours en cours et les autorités n'ont pas encore conclu que l'Autopilot était activé au moment du drame. Cependant, les analystes ont déclaré qu'au regard des faits observés, il ne peut en être autrement. De son côté, Tesla n'a pas répondu à une demande de commentaire dimanche. L'entreprise a dissous son service de presse et ne répond généralement pas aux demandes des médias.
Des dizaines d'accidents de ce type ont déjà été répertoriés
Au moins 23 accidents liés à l'Autopilot font l'objet d'une enquête de la National Highway Traffic Safety Administration (NHTSA). Cependant, il semble s'agir du premier accident mortel où il n'y avait pas un chauffeur sur le siège du conducteur. Tesla a déjà prévenu ses clients que l'Autopilot n'est pas un système de conduite autonome et qu'il nécessite toujours une attention constante à la route lorsqu'il est utilisé. Les voitures Tesla ne vérifient cette attention qu'à l'aide d'un capteur qui vérifie si le conducteur serre le volant avec ses mains, ce qui laisse une marge de manœuvre pour une utilisation abusive.
Le National Transportation Safety Board (NTSB) a reproché cela à Tesla l'année dernière, déclarant que cette mesure de sécurité est insuffisante. En outre, Tesla a déjà fourni des conseils aux secouristes confrontés à des incendies impliquant ses batteries de véhicules électriques. Le rallumage de la batterie peut être un problème, car contrairement aux véhicules à essence, même si le feu est éteint, la batterie d'une voiture électrique a encore de l'énergie stockée. Les conseils de Tesla suggèrent qu'il est préférable de laisser le feu s'éteindre plutôt que de continuer à essayer de l'éteindre.
Selon certaines sources, dans le passé, le PDG de Tesla, Elon Musk, aurait rejeté les appels des ingénieurs de Tesla à ajouter un meilleur contrôle de sécurité lorsqu'un véhicule a l'Autopilot activé, comme des caméras de suivi des yeux ou des capteurs supplémentaires sur le volant. Il aurait dit que la technologie est "inefficace". Plus tard, en 2018, il a déclaré que Tesla publierait régulièrement des données de sécurité sur sa fonction Autopilot, mais a ajouté que la couverture médiatique "négative" à son sujet pourrait persuader les clients de ne pas l'utiliser.
« Lorsqu'il y a un accident grave, c'est presque toujours, en fait peut-être toujours, le cas qu'il s'agit d'un utilisateur expérimenté, et le problème est plutôt celui de la complaisance », a déclaré Musk lors d'un appel aux investisseurs en mai 2018. « Ils s'y habituent tout simplement trop. Cela a tendance à être plus un problème. Ce n'est pas un manque de compréhension de ce que l'Autopilot peut faire. C'est les conducteurs qui pensent en savoir plus sur l'Autopilot qu'ils ne le font », a-t-il ajouté. Samedi, après l'accident, Musk, a tweeté le rapport sur les données d'accidents de la société pour le premier trimestre 2021.
Il a affirmé qu'un conducteur de Tesla avec l'Autopilot enclenché a 10 fois moins de risques d'avoir un accident qu'un conducteur au volant d'un véhicule moyen. Cela dit, notons qu'il y a un mois, en remettant en cause les capacités de l'Autopilot, le NTSB a accusé Tesla de commercialiser un système d'aide à la conduite inachevé et défaillant. Elle a également attaqué son agence sœur, la NHTSA, pour sa réglementation permissive des systèmes d'aide à la conduite. Le NTSB réclame une réglementation plus stricte en la matière.
Autrement dit, elle réclame des exigences fédérales plus strictes pour la conception et l'utilisation des systèmes de conduite autonome sur les routes publiques. Par ailleurs, Tesla continue de modifier ses voitures électriques pour, selon lui, les rendre plus faciles à utiliser. La dernière en date est la suppression de certaines fonctions autrefois accessibles via des boutons (ou tiges), comme le levier de vitesse, pour les intégrer directement à l'écran tactile du tableau de bord. La NHTSA dit que cela ne viole aucune règle, mais beaucoup d'analystes pensent qu'il s'agit d'une « très mauvaise idée ».
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi
:fleche: Le levier de vitesse à écran tactile de Tesla est-il une très mauvaise idée ? La NHTSA déclare que cela répond aux normes de conformité et ne viole pas les règles
:fleche: L'agence fédérale américaine NTSB accuse Tesla de commercialiser l'Autopilot, un système de conduite autonome, inachevé et défaillant et appelle à une réglementation plus stricte du secteur
:fleche: L'entreprise Cruise présente Origin, son véhicule électrique entièrement autonome sans volant ni pédales, mais sera-t-il suffisamment sûr pour transporter des personnes sans susciter de crainte ?
:fleche: La nouvelle mise à jour de l'Autopilot de Tesla gère désormais les feux de circulation et les panneaux d'arrêt, l'entreprise rappelle néanmoins que cela n'empêche pas de rester attentif
2 pièce(s) jointe(s)
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports,
Mais « vous ne devriez pas essayer ça »
Consumer Reports (CR) a déclaré jeudi que ses chercheurs ont "facilement" réussi à tromper le système Autopilot de Tesla pour qu'il fonctionne sans personne au volant. Cette démonstration inquiétante de la publication intervient alors que les autorités continuent d'enquêter sur un accident mortel au Texas impliquant une Tesla qui, selon les autorités, n'avait personne sur le siège du conducteur au moment des faits. Ce nouvel accident a soulevé une question sur la sécurité d’Autopilot, le système avancé d'aide à la conduite de la société.
À l'aide d'une Tesla Model Y, les ingénieurs de Consumer Reports ont pu "conduire" sur une piste d'essai fermée tout en étant assis sur le siège du passager avant et sur la banquette arrière. Pour tromper le système d'aide à la conduite de la voiture, ils ont attaché une chaîne lestée au volant pour simuler la pression des mains d'un conducteur et ont utilisé le bouton de vitesse du volant pour accélérer à partir d'un arrêt complet.
Tant qu'ils gardaient la porte du côté conducteur fermée et la ceinture de sécurité du côté conducteur bouclée (afin que le système ne se désactive pas automatiquement), le véhicule a continué à monter et descendre la piste d'un demi-mile et à suivre les lignes des voies peintes pendant l'expérience, sans que personne ne s'en aperçoive.
« La voiture a roulé sur la voie de 800 mètres de notre piste, à plusieurs reprises, sans jamais remarquer que personne n'était à la place du conducteur, ni que personne ne touchait le volant, ni qu'il n'y avait pas de poids sur le siège », a déclaré Jake Fisher, directeur principal des tests automobiles de CR, dans un communiqué. « C'était un peu effrayant quand nous avons réalisé à quel point il était facile de déjouer les protections, dont nous avons prouvé qu'elles étaient clairement insuffisantes ».
« Dans notre évaluation, le système n'a pas seulement échoué à s'assurer que le conducteur était attentif, mais il ne pouvait pas non plus dire s'il y avait un conducteur présent », a-t-il poursuivi. « Tesla se laisse distancer par d'autres constructeurs automobiles comme GM et Ford qui, sur les modèles équipés de systèmes avancés d'aide à la conduite, utilisent une technologie pour s'assurer que le conducteur regarde la route ».
Fisher a également mis en garde contre toute tentative de tromper de la même manière Autopilot de Tesla, notant que cette expérience ne devrait être tentée que par un professionnel qualifié. En plus de réaliser le test sur un parcours fermé, CR avait également des équipes de sécurité à disposition et n'a jamais dépassé les 30mph (environ 48 km/h). « Soyons clairs : toute personne qui utilise l'Autopilot sur la route sans qu'il y ait quelqu'un à la place du conducteur se met en danger et met les autres en danger de façon imminente », déclare Fisher.
La démonstration de CR intervient alors que les enquêteurs fédéraux et locaux continuent de sonder les causes d'un accident mortel survenu samedi au Texas, dans lequel une Tesla Model S 2019 apparemment sans conducteur a percuté un arbre, tuant les deux occupants du véhicule. L'agent Mark Herman, du district 4 du comté de Harris, qui était sur place lors de l'accident, a déclaré à CR qu'il est presque certain que personne n'était à la place du conducteur lorsque le véhicule s'est écrasé.
Le véhicule impliqué dans l'accident mortel de samedi serait une Tesla Model S, un modèle différent de celui utilisé par Consumer Reports dans son expérience. Cependant, les deux utilisent le même système Autopilot, note la publication.
Autopilot peut s’éteindre de manière inattendue sans avertir le conducteur, selon Fisher
La piste sur laquelle CR a effectué son test comportait des voies peintes, dont Elon Musk, le PDG de Tesla, a affirmé qu’Autopilot avait besoin pour fonctionner. Dans sa réponse à l'accident de Spring, au Texas, Musk a noté que la route sur laquelle la voiture se trouvait n'avait pas de lignes peintes, suggérant qu'il ne serait pas possible d'activer Autopilot dans ces conditions. Ce qui pourrait être la cause de l’accident mortel. La National Highway Traffic Safety Administration et le National Transportation Safety Board enquêtent sur l'accident, qui s'est produit sur une route sinueuse à Spring à l'extérieur de Houston.
Musk a également affirmé que les journaux de données récupérés de la Model S accidentée « montrent jusqu'à présent qu’Autopilot n'était pas activé ». Mais des recherches ont montré que le système Autopilot peut s'éteindre de manière inattendue sans en avertir le conducteur. « Autopilot fait des erreurs, et lorsqu'il rencontre une situation qu'il ne peut pas négocier, il peut s'éteindre immédiatement », a déclaré Fisher. « Si le conducteur n'est pas prêt à réagir rapidement, cela peut se terminer par un accident ».
Sur sa page d’assistance, Tesla prévient que les conducteurs doivent garder les yeux sur la route et les mains sur le volant à tout moment, bien que le constructeur automobile refuse notoirement d'inclure un système de surveillance du conducteur plus robuste (comme le suivi oculaire infrarouge, par exemple) pour s'assurer que ses clients suivent les protocoles de sécurité. Autopilot est considéré comme un système "partiellement autonome" de niveau 2 selon les normes de la Society of Automotive Engineers, qui exige que les conducteurs gardent les mains sur le volant et les yeux sur la route. La société avertit également que, malgré leur appellation, ses fonctions de pilotage automatique et de conduite entièrement autonome nécessitent une "supervision active du conducteur".
Mais ces avertissements n'ont pas empêché les conducteurs de Tesla de confier le contrôle au système Autopilot de leur voiture pendant qu'ils dorment, changent de siège ou quittent la route des yeux. En 2018, la police californienne a arrêté un conducteur de Tesla Model S qui était ivre et endormi au volant alors que sa voiture filait toute seule à 70 miles par heure (112 kilomètres par heure). Un incident similaire s'est produit au Canada en septembre dernier. Le propriétaire d'une Tesla Model S a été accusé de conduite dangereuse après avoir été retrouvé endormi au volant alors qu'il roulait à 150 kilomètres à l'heure sur l'autoroute.
Et l'accident de samedi n'est pas un incident isolé. La National Highway Traffic Safety Administration (NHTSA), l'organisme américain chargé de la sécurité automobile, aurait ouvert au moins 14 enquêtes sur des accidents de Tesla dans lesquels le système Autopilot du véhicule est soupçonné d'avoir été utilisé. Les familles des conducteurs décédés ont poursuivi Tesla pour mort injustifiée. Pour sa part, Musk blâme l'excès de confiance des conducteurs. « Lorsqu'il y a un accident grave, c'est presque toujours, en fait peut-être toujours, le cas qu'il s'agit d'un utilisateur expérimenté, et le problème est plutôt celui de la complaisance », a déclaré Musk en 2018.
Dans le passé, la NHTSA, qui a le pouvoir de réglementer les constructeurs automobiles et de demander le rappel des véhicules défectueux, a adopté une approche non interventionniste pour réglementer les systèmes partiellement et entièrement automatisés, de peur d'entraver le développement de nouvelles fonctionnalités prometteuses.
Mais depuis quelque temps, l'agence a intensifié ses enquêtes sur Tesla, envoyant des équipes pour enquêter sur des accidents. Elle a enquêté sur plus d’une dizaine d’accidents impliquant des véhicules Tesla au cours des dernières années, mais jusqu'à présent, elle s'est appuyée sur le respect volontaire des règles de sécurité par les entreprises automobiles et technologiques. Tesla a rappelé ce mois environ 135 000 de ses voitures électriques Model S et X pour un problème avec leurs écrans tactiles centraux de 17 pouces qui pourrait entraîner la perte de l'affichage de la caméra de recul et d'autres fonctions, suite à une enquête de plusieurs mois menée par la NHTSA.
Les sénateurs démocrates Richard Blumenthal et Edward Markeyh ont demandé aux responsables fédéraux de mener une enquête approfondie sur l'accident du Texas et de formuler des recommandations pour améliorer la conduite autonome.
Source : Consumer Reports
Et vous ?
:fleche: Quel est votre avis sur ce test sur un véhicule de Tesla ?
:fleche: Que pourrait faire Tesla pour s'assurer qu’il y a effectivement un conducteur au volant d’un véhicule et qui prête attention à la route, selon vous ?
Voir aussi :
:fleche: La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse, et dirige le véhicule par moment de façon extrêmement risquée
:fleche: Tesla rappelle les voitures présentant des défaillances de l'eMMC, et qualifie la pièce d'« article d'usure », ce qui n'est pas mentionné spécifiquement dans le manuel du propriétaire
:fleche: Le PDG de Waymo rejette le plan "self-driving" de Tesla : « Ce n'est pas comme ça que ça marche », la stratégie actuelle de Tesla ne produirait probablement jamais un système entièrement autonome
:fleche: Les États-Unis demandent à Tesla de rappeler 158 000 véhicules pour cause de panne d'écran tactile, le défaut de sécurité concerne les anciens véhicules Models S et X
2 pièce(s) jointe(s)
Un propriétaire d'une Tesla qui "conduit" depuis le siège arrière, avec Autopilot activé, a été arrêté
Un propriétaire d'une Tesla qui "conduit" depuis le siège arrière, avec Autopilot activé, a été arrêté,
Puis il a recommencé
Un homme de 25 ans a été arrêté après avoir été vu en train de rouler à partir du siège arrière d'une Tesla sans personne à la place du conducteur. Param Sharma a été arrêté lundi soir par la California Highway Patrol pour deux chefs d'accusation de conduite imprudente et de désobéissance à un agent de la paix. Sharma a passé la nuit à la prison de Santa Rita. Mardi soir, il était sorti. Il a déclaré à la chaîne KTVU que sa conduite n'était pas dangereuse et s'est vanté d'être rentré chez lui en faisant ce pour quoi on le connait : monter sur la banquette arrière d'une voiture Tesla (cette fois avec la Tesla d’un ami). Sharma dit être « plus en sécurité sur le siège arrière que sur le siège du conducteur » avec le système Autopilot enclenché.
La California Highway Patrol a déclaré avoir arrêté cet homme vu sur la banquette arrière d'une Tesla Model 3 dont le siège conducteur était vide. Param Sharma a été arrêté « et incarcéré à la prison de Santa Rita » pour conduite dangereuse et désobéissance à un agent, a déclaré le département dans un communiqué sur Facebook mardi. Sharma a été arrêté après de multiples appels au 911 lundi vers 18h30 signalant un véhicule sans conducteur « circulant en direction de l'est sur la I-80, traversant le pont de la baie de San Francisco-Oakland en direction de la ville d'Oakland », a déclaré la police.
Un agent à moto a repéré la Tesla, a confirmé que le seul occupant était sur la banquette arrière, a pris des mesures pour arrêter la voiture et a vu la personne à l'intérieur se déplacer vers le siège du conducteur avant de s'arrêter. Les autorités ont déclaré avoir cité Sharma, de San Francisco, le 27 avril pour une infraction similaire. Dans une interview accordée à l'Associated Press mercredi, Sharma a déclaré qu'il n'avait rien fait de mal et qu'il continuerait à rouler sur le siège arrière, sans personne derrière le volant.
« La voiture a été conçue pour être conduite sur la banquette arrière », a-t-il déclaré. « Je me sens plus en sécurité sur le siège arrière que sur le siège du conducteur, et je me sens plus en sécurité avec ma voiture avec Autopilot activé, je fais plus confiance à ma voiture Autopilot qu'à tout le monde sur la route ».
Cette semaine, Sharma a également posté sur Instagram des vidéos de lui-même sur le siège arrière d'une Tesla en mouvement avec le siège conducteur vide. Dans une vidéo, il lit un article sur lui intitulé « Homme vu sur le siège arrière d'une Tesla sans conducteur ». Dans une vidéo publiée hier, il déclare : « Je viens de sortir de prison. J'ai déjà une [autre] Tesla. Vous me comprenez, je suis riche. Je suis sorti de la pandémie en étant millionnaire ».
Sharma a exprimé sa confiance dans les capacités de conduite autonome de Tesla dans une autre interview avec KTVU. « Elon Musk [PDG de Tesla] sait vraiment ce qu'il fait, et je pense que les gens ont peur », a déclaré Sharma.
L’automatisation disponible dans les véhicules disponibles à l’achat aujourd’hui est considérée comme étant de niveau 1 ou 2. Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.
Malgré les limitations des systèmes actuels, certains noms semblent trop surprenants quant à la capacité du conducteur de détourner son attention de la route. Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. En janvier 2020, un sénateur américain a exhorté Tesla Inc à renommer son système d'aide à la conduite Autopilot, affirmant qu'il a « un nom intrinsèquement trompeur » et qu'il est sujet à une utilisation potentiellement dangereuse.
Un porte-parole de la California Highway Patrol a déclaré que l’agence « recommande des charges au bureau du procureur de district » et « mène une enquête approfondie qui prendra en compte la possibilité d'incidents précédents et évidemment ses médias sociaux ».
Le mode "Full Self-Driving" de Tesla n'est pas encore "autonome"
Sharma pense que sa Model 3 peut se conduire toute seule, et ne comprend pas pourquoi il a dû passer une nuit en prison. Il dit avoir commencé à monter sur le siège arrière des véhicules à conduite autonome en 2018 et avoir parcouru environ 40 000 miles (64373 km) sans être sur le siège du conducteur. Sharma a déclaré à KTVU que ses pitreries au volant n'avaient pas pour but de frimer, mais de montrer que les véhicules autonomes ne sont pas seulement l'avenir, mais aussi le présent.
« C'est tellement dangereux. Les voitures sont dangereuses lorsqu'elles sont conduites par des humains et elles sont dangereuses lorsqu'elles sont conduites par des robots qui n'ont pas été certifiés », a déclaré Nick Josefowitz, responsable des politiques pour SPUR.
Tesla affirme que « Autopilot est un système d'aide à la conduite pratique qui est destiné à être utilisé uniquement avec un conducteur pleinement attentif ». Le mois dernier, Consumer Reports a constaté que le système de surveillance du conducteur de Tesla « non seulement n'a pas réussi à s'assurer que le conducteur était attentif, mais il ne pouvait pas non plus savoir s'il y avait un conducteur présent ».
Le "Full Self-Driving" de Tesla a plus de capacités, mais « l’Autopilot et "Full Self-Driving Capability" sont destinés à être utilisés avec un conducteur pleinement attentif, qui a les mains sur le volant et est prêt à prendre le relais à tout moment », dit Tesla.
Musk a déclaré qu'il s'attendait à ce que la société atteigne le niveau 5 d'automatisation, c'est-à-dire la capacité de conduire sans l'attention d'un humain, d'ici la fin de l'année. Cependant, un mémo DMV de Californie récemment publié indique que le directeur du logiciel Autopilot de Tesla, CJ Moore, a déclaré aux régulateurs de l'État en mars que le calendrier prévu par Musk « ne correspond pas à la réalité technique.Tesla est actuellement au niveau 2 ». La technologie de conduite autonome de niveau 2 fait référence à un système d'assistance au conducteur qui n'est pas autonome, mais qui exige que le conducteur reste à la place du conducteur, prêt à diriger la voiture à tout moment.
Tesla a un permis pour « exploiter des véhicules autonomes avec des conducteurs de secours humains en Californie », mais elle n'a pas de permis « pour mettre des véhicules entièrement autonomes sur les routes californiennes », notait un article de l'Associated Press en octobre 2020.
La loi californienne autorise l'utilisation publique des voitures autonomes si elles remplissent certaines conditions. Mais Tesla affirme que ses voitures ne sont pas autonomes malgré les appellations "Autopilot" et "Full Self-Driving". Un avocat de Tesla a déclaré au California DMV en décembre 2020 : « [A]ujourd'hui, ni l'Autopilot ni la capacité FSD ne sont des systèmes autonomes, et actuellement, aucune des fonctions qui les composent, que ce soit individuellement ou collectivement, n'est autonome ou ne rend nos véhicules autonomes ».
En avril, deux hommes sont morts lorsqu'une Tesla Model S s'est écrasée contre un arbre dans un quartier résidentiel du Texas. Les autorités ont déclaré n'avoir trouvé personne à la place du conducteur, mais le rapport préliminaire du National Transportation Safety Board a jeté le doute sur l'utilisation du système Autopilot de Tesla. Le NTSB affirme que les images vidéo montrent les occupants en train de monter sur les sièges avant de la voiture peu avant l'accident. Le NTSB s’appuie aussi sur le fait qu’il n'a pas été en mesure d'engager un composant du système Autopilot sur le tronçon de route où l'accident s'est produit. Les enquêteurs du NTSB ont pu « activer le composant du régulateur de vitesse d'Autopilot en fonction du trafic sur le tronçon de route en question ».
Dans sa réponse à l'accident de Spring, au Texas, Musk a noté que la route sur laquelle la voiture se trouvait n'avait pas de lignes peintes, suggérant qu'il ne serait pas possible d'activer Autopilot dans ces conditions. Musk a également affirmé que les journaux de données récupérés de la Model S accidentée « montrent jusqu'à présent qu’Autopilot n'était pas activé ».
Lors d'un appel aux investisseurs en mai 2018, Musk a déclaré : « Lorsqu'il y a un accident grave, c'est presque toujours, en fait peut-être toujours, le cas qu'il s'agit d'un utilisateur expérimenté, et le problème est plutôt celui de la complaisance ». « Ils s'y habituent tout simplement trop. Cela a tendance à être plus un problème. Ce n'est pas un manque de compréhension de ce que l'Autopilot peut faire. C'est les conducteurs qui pensent en savoir plus sur l'Autopilot qu'ils ne le font », a-t-il ajouté. Sharma devrait entendre cela pendant qu’il est encore temps.
Sources : CHP, Vidéo de Sharma
Et vous ?
:fleche: Quel est votre avis à ce sujet ?
:fleche: Tesla devrait-il être blâmé pour ce genre de comportement ?
:fleche: Sharma dit vouloir montrer que les véhicules autonomes ne sont pas seulement l'avenir, mais aussi le présent. Quel commentaire en faites-vous ?
Voir aussi :
:fleche: Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flamme
:fleche: Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
:fleche: Un sénateur US estime que le nom "Autopilot" de Tesla peut emmener les conducteurs à surestimer les capacités réelles du véhicule, et demande à l'entreprise de le modifier
:fleche: L'agence fédérale américaine NTSB accuse Tesla de commercialiser l'Autopilot, un système de conduite autonome, inachevé et défaillant, et appelle à une réglementation plus stricte du secteur