2 pièce(s) jointe(s)
Tesla pourrait être forcé de cesser d'appeler son logiciel bêta "Full Self Driving" en Californie
Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel bêta "Full Self Driving" dans l'État,
il ne manque plus que la signature du gouverneur Newsom
Tesla pourrait être contraint de cesser d'utiliser le terme "Full Self Driving" (FSD) en Californie. Mardi, les législateurs californiens ont adopté un projet de loi au Sénat qui pourrait rendre illégale l'utilisation par le constructeur de voitures électriques du nom actuel du logiciel. Le projet de loi, qui a été parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (Démocrate - Long Beach), nécessite désormais la signature du gouverneur Gavin Newsom.
Depuis 2016, Tesla commercialise une option coûteuse appelée Full Self-Driving. Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement.
Ce n'est pas le cas. Aucune voiture disponible à l'achat pour les consommateurs n'est capable de se conduire entièrement de manière autonome. Le California Department of Motor Vehicles (DMV) a des règles dans ses livres qui interdisent de faire la publicité de voitures comme étant «*autonomes*» lorsqu'elles ne le sont pas. Mais il n'a jamais appliqué ces règles.
Ainsi, suite à l'inaction de la DMV, la législature de l'État a décidé d'intervenir et d'établir un projet de loi concernant la publicité mensongère. Le projet de loi, parrainé par la présidente du comité sénatorial des transports, Lena Gonzalez (D-Long Beach), a été adopté par le Sénat mardi et se dirige maintenant vers le gouverneur Gavin Newsom pour sa signature.
Citation:
Envoyé par Projet de loi
La loi en vigueur exige que tous les véhicules automobiles neufs vendus dans l'État aient certains avis au consommateur soit apposés sur le véhicule, soit fournis à l'acheteur.
La loi existante réglemente les véhicules autonomes équipés d'une technologie capable de conduire un véhicule sans le contrôle physique actif ou la surveillance par un opérateur humain. En vertu de la législation en vigueur, cela n'inclut pas les systèmes d'évitement de collision, y compris, mais sans s'y limiter, l'assistance électronique aux angles morts, les systèmes de freinage d'urgence automatisés, l'assistance au stationnement, le régulateur de vitesse adaptatif, l'assistance au maintien de voie, l'avertissement de sortie de voie, les embouteillages et l'assistance à la file d'attente, ou d'autres systèmes similaires qui améliorent la sécurité ou fournissent une assistance à la conduite, mais ne sont pas capables, collectivement ou individuellement, de conduire le véhicule sans le contrôle actif ou la surveillance d'un opérateur humain.
Ce projet de loi obligerait un concessionnaire ou un fabricant qui vend un véhicule de tourisme neuf équipé d'une fonction d'automatisation de la conduite partielle, telle que définie, ou qui fournit une mise à jour logicielle ou une mise à niveau du véhicule qui ajoute une fonction d'automatisation de la conduite partielle, à fournir à l'acheteur ou au propriétaire avec un avis au consommateur qui décrit les fonctions et les limites de ces fonctionnalités.
Toute violation de ces exigences serait passible d'une infraction.
Le projet de loi interdirait en outre à un fabricant ou à un revendeur de nommer ou de commercialiser de manière trompeuse ces fonctionnalités, comme spécifié. En créant une nouvelle infraction, ce projet de loi imposerait un programme local mandaté par l'État.
Le projet de loi ne cible pas directement Tesla, mais Gonzalez a déclaré qu'elle pense que d'autres constructeurs automobiles, dont Ford, GM et BMW, ont été plus clairs sur les limites de leur technologie.
La fausse publicité sur la technologie de conduite autonome est un grave problème de sécurité, a déclaré Gonzalez. Au moins plusieurs décès ont été liés à l'Autopilot de Tesla, la version la moins chère et la plus basique de Full Self-Driving. « Allons-nous simplement attendre qu'une autre personne soit tuée en Californie ? », a-t-elle demandé.
Le nombre d'accidents, de blessures et de décès pouvant impliquer Full-Self Driving est inconnu. Le système national de signalement des accidents, vieux de plusieurs décennies, fracturé entre les villes et les États, est mal équipé pour déterminer des faits qui sont de plus en plus centraux à l'ère des véhicules routiers contrôlés par logiciel.
Une voiture moderne telle qu'une Tesla est dotée de minuscules ordinateurs qui collectent et traitent de grandes quantités de données qui peuvent être communiquées au fabricant via des connexions cellulaires et Wi-Fi. Tesla a résisté à la divulgation de ces données aux régulateurs ou aux chercheurs en sécurité.
La pression monte
Les régulateurs commencent à exercer plus de pression. La National Highway Traffic Safety Administration mène plusieurs enquêtes sur le bilan de sécurité de l’entreprise, notamment une série de voitures Tesla qui ont percuté des véhicules d’urgence garés sur le bord de la route.
Récemment, la NHTSA a ordonné à Tesla de lui fournir des données détaillées sur les accidents pouvant impliquer ses systèmes de conduite automatisés.
La Californie « interdit déjà la commercialisation trompeuse » des véhicules automatisés, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud. « L'adoption de ce projet de loi, cependant, fournirait certainement des preuves assez solides de l'intention législative d'une manière qui pourrait être significative pour une agence administrative d'État ou un juge d'État », a-t-il déclaré.
Le projet de loi ne répondrait à aucun problème de sécurité concernant le logiciel, mais ciblerait simplement sa commercialisation. Cela établirait également de nouvelles normes pour les constructeurs automobiles lorsqu'il s'agit d'expliquer les capacités de la technologie d'assistance à la conduite. Cependant, on ne sait pas comment la règle sera appliquée, car la California Department of Motor Vehicles serait chargée de prendre des mesures contre Tesla).
Les législateurs ont adopté le projet de loi quelques semaines seulement après que la DMV de l'État a accusé Tesla d'avoir utilisé un marketing trompeur pour faire la publicité de ses logiciels Autopilot et FSD.
Le logiciel Autopilot agit comme une fonction d'assistance au conducteur qui permet à la Tesla de se diriger, d'accélérer et de freiner automatiquement dans sa voie, tandis que le FSD est un module complémentaire en option qui peut changer de voie et s'arrêter aux feux de circulation, ainsi que s'arrêter aux panneaux de signalisation. Tesla a dit aux conducteurs que les deux fonctionnalités nécessitent un conducteur titulaire d'un permis de conduire le véhicule afin d'être prêt à prendre le relais à tout moment.
Certains régulateurs craignent que le marketing autour du logiciel ne donne aux conducteurs un faux sentiment de sécurité. L'année dernière, un homme a été arrêté pour être monté sur la banquette arrière alors qu'il utilisait un FSD sur l'autoroute. En juin, la National Highway Traffic Safety Administration a déclaré qu'elle avait élargi ses enquêtes sur Autopilot, y compris le rôle potentiel du logiciel dans plusieurs accidents de voiture mortels.
Des accidents liés au système Autopilot de Tesla
Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin 2021, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.
Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA plus d'un an avant dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.
Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.
La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars 2021. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril de l'année dernière au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier 2021, ont brûlé pendant quatre heures après.
Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai l'année dernière que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.
Un autre accident mortel survenu le 5 mai 2021 près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.
En juin 2021, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.
Source : projet de loi
Et vous ?
:fleche: Que pensez-vous de ce projet de loi ?
2 pièce(s) jointe(s)
Un pirate qualifie le FSD de Tesla d'escroquerie flagrante et conseille de l'éviter
Un pirate qualifie le FSD de Tesla d'escroquerie flagrante et conseille de l'éviter
Les capacités du FSD sont largement remises en cause, mais le prix du logiciel n'a pas cessé d'augmenter
Les détracteurs du Full Self-Driving (FSD) se multiplient et continuent à sensibiliser les consommateurs sur les dangers du logiciel de conduite autonome de Tesla. Jason Hughes, un pirate informatique bien connu dans le monde Tesla, a récemment qualifié le FSD de Tesla d'"escroquerie flagrante à l'argent". Le pirate a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.
L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à une Tesla de "voir" les voitures et la route qui l'entourent, et de se conduire elle-même dans une certaine mesure. Depuis 2016, Tesla commercialise une version coûteuse appelée Full Self-Driving (FSD). Une personne raisonnable pourrait déduire du nom que le progiciel permet à une voiture de se conduire entièrement. Mais ce n'est pas le cas. En réalité, aucune voiture disponible à l'achat pour les consommateurs n'est actuellement capable de se conduire entièrement de manière autonome.
Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.
Le premier est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.
Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.
En second lieu, Hughes pense que "le FSD n'est qu'un gadget". Le pirate a déclaré que, selon son "expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire". « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela "finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même". En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.
Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.
Les experts en véhicules autonomes (VA), les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.
Selon eux, les conducteurs ordinaires ne devraient obtenir le FSD que lorsqu'il n'a plus rien de bêta. Cela dit, ils exhortent le gouvernement américain à prendre des mesures et à retirer le FSD des routes publiques. Seule une fraction des acheteurs du FSD a accès au logiciel jusqu'à présent, mais ils seraient déjà plus de 100 000. Certains utilisateurs du FSD estiment que "le logiciel de Tesla agit comme un conducteur ivre". Les experts en VA déclarent que, si le FSD avait une compétence minimale, cela entraînerait une confiance excessive, un facteur qui a été jugé crucial dans certains accidents mortels impliquant l'Autopilot.
Ralph Nader, l'un des militants américains les plus connus en matière de droits des consommateurs et du grand public, a demandé à la National Highway Traffic Safety Administration (NHTSA) "d'ordonner que la technologie FSD soit retirée dans chaque Tesla". Le milliardaire Dan O'Dowd semble dépenser des sommes importantes dans une campagne nationale visant à faire interdire le FSD. Au début du mois de septembre, les législateurs californiens ont également adopté un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel "Full Self-Driving" dans l'État. Selon les sources, le gouverneur devrait signer le projet de loi très prochainement.
La NHTSA enquête déjà sur le FSD et sur l'Autopilot. En juin, elle a fait passer son évaluation préliminaire d'Autopilot à une analyse technique - la dernière étape avant un rappel. Si l'organisme de réglementation de la sécurité ordonne à Tesla de retirer l'Autopilot de ses voitures, le FSD pourrait faire de même, privant ainsi de cette fonction toutes les personnes qui ont payé jusqu'à 15 000 dollars pour l'acquérir. Tesla pourrait avoir à rembourser ces clients si cela se produisait. Hughes n'a pas mentionné ces problèmes juridiques dans la série de tweets qu'il a partagée la semaine dernière pour exprimer son mécontentement.
Ce qui semble vraiment le déranger, c'est que Tesla reçoive de l'argent pour quelque chose qu'il ne fournit pas à la plupart des acheteurs. Si quelqu'un achetait un produit coûteux et ne le recevait jamais, il essaierait sans aucun doute d'annuler son achat. La différence est que Tesla ne vend pas un produit : il vend une promesse bêta en affirmant qu'il sera plus cher quand il sera prêt - ce qui n'a jamais été le cas depuis 2016 malgré les promesses récurrentes de Musk. Hughes a déclaré que "rien de ce que Tesla a produit à ce jour n'est capable, quelle que soit la quantité de logiciels qu'ils publient, d'être un robotaxi sans conducteur".
« Est-il [le FSD] réellement utile aujourd'hui ? Non. Est-il réellement disponible ? Non. Est-ce qu'il vaut 15 000 dollars en l'état ? Pas du tout. À 15 000 dollars, il doit tout faire, et je ne devrais pas être responsable s'il se plante. Au moins au prix original de 3 000 dollars, l'aspect conducteur-responsable serait acceptable. Dépenser 15 000 dollars pour avoir peut-être accès à un logiciel qui essaie de conduire à votre place, tout en vous pénalisant si vous ne prêtez pas toute votre attention à ce qu'il fait, et en vous rendant responsable s'il se plante, ça me semble plutôt arriéré », a conclu Hughes.
Source : Jason Hughes
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des déclarations de Jason Hughes ?
:fleche: Que pensez-vous de l'Autopilot de Tesla et du Full Sefl-Driving ?
:fleche: Pensez-vous que le FSD devrait être autorisé sur les routes publiques ?
:fleche: Pensez-vous que Tesla puisse survivre si les régulateurs interdisaient le FSD ?
:fleche: Quelle comparaison faites-vous entre Tesla et ses concurrents, notamment Waymo et Cruise ?
Voir aussi
:fleche: Elon Musk tente de vendre le robot Optimus de Tesla à la Chine comme un agent autonome capable de prodiguer des soins aux personnes âgées, s'occuper de la maison et travailler dans les usines
:fleche: Les législateurs californiens adoptent un projet de loi qui pourrait forcer Tesla à cesser d'appeler son logiciel "Full Self-Driving" dans l'État, il ne manque plus que la signature du gouverneur
:fleche: « L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies », l'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla
:fleche: Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 $
:fleche: Une vidéo semble montrer le système Autopilot d'une Tesla confondant une calèche avec un camion, le système piloté par l'IA n'a peut-être pas été formé à cette façon rudimentaire de se déplacer
Tesla fait l'objet d'une action en justice au sujet de l'Autopilot et des prévisions d'Elon Musk en la matière
Tesla fait l'objet d'une action en justice au sujet de l'Autopilot et des prévisions d'Elon Musk en matière de Full Self Driving
Et ravive le débat autour des véhicules dits autonomes
Le terme Autopilot seul semble amener les conducteurs à surestimer les capacités des véhicules de marque Tesla et donc à provoquer des accidents de la circulation. De multiples sources s’accordent désormais sur la publicité mensongère et qualifient le logiciel Full Self Driving du constructeur automobile d’escroquerie flagrante à éviter. Ce sont autant d’aspects qu’une récente action en justice initiée contre le constructeur automobile résume, ce, même si ce dernier se défend de ce que les cas où les voitures Tesla sauvent des vies sont très peu mis en avant.
La plainte affirme que Tesla et Musk « ont trompé et induit en erreur les consommateurs en ce qui concerne les capacités actuelles de sa technologie ADAS [système avancé d'assistance au conducteur] et en déclarant qu'ils étaient perpétuellement sur le point de perfectionner cette technologie et de tenir enfin leur promesse de produire une voiture entièrement autonome », et que « contrairement aux promesses répétées de Tesla selon lesquelles elle aurait une voiture entièrement autonome dans quelques mois ou un an, Tesla n'a jamais été très près d'atteindre cet objectif. »
Le plaignant, Briggs Matsko, dit avoir dépensé 5000 dollars pour le forfait en 2018, comme de nombreux conducteurs de Tesla qui ont payé des milliers de dollars pour le pilote automatique amélioré. Ce dernier a été vendu comme un précurseur de la technologie Full Self Driving, un logiciel complémentaire d'une valeur de 15 000 dollars qui n'est toujours pas prêt à être livré. Matsko cherche à obtenir le statut de recours collectif pour cette action en justice, alors que la société est déjà confrontée à un autre recours collectif visant de précédents incidents qui ont affecté les fonctions de régulateur de vitesse adaptatif des Tesla pendant des années.
L'action en justice dénonce la terminologie utilisée par Tesla, notamment le terme "Autopilot", ainsi que les déclarations publiques et les tweets d'Elon Musk concernant le système de conduite autonome, toujours inachevé. Elle mentionne de façon spécifique l'affirmation de Musk selon laquelle un voyage autonome à travers les États-Unis sera effectué d'ici 2018, et ses affirmations de 2019 concernant la mise en circulation d'un million de robotaxis : « Dans un an, nous aurons plus d'un million de voitures avec une conduite autonome complète. »
Le voyage en question a finalement été mis en attente de façon indéfinie, Musk admettant qu'il aurait besoin d'un itinéraire spécialisé pour fonctionner, et déclarant qu'il préférait que l'équipe Autopilot se concentre sur les fonctions de sécurité. Les robotaxis continuent donc de se faire attendre.
Elon Musk pour sa part se plaint de ce que les médias ne mettent pas en avant les cas où les véhicules Tesla sauvent des vies. En effet, la poche des eaux de Yiran Sherry s'est rompue alors que la famille était coincée dans les embouteillages. Les contractions augmentant rapidement et la circulation étant à peine fluide, son époux a réalisé qu'il n'arriverait pas à temps. Keating Sherry (son conjoint) a donc mis le véhicule en pilotage automatique après avoir réglé le système de navigation vers l'hôpital, situé à 20 minutes de là. Il n’a ensuite eu qu’à poser la main sur le volant du véhicule qui les a menés jusqu’à la formation hospitalière pendant qu’il s’occupait de sa femme. La prise en charge de la dame s’est faite dans le véhicule.
Le cas Keating et Yirran fait suite à celui d’un propriétaire de Tesla Model 3 qui affirme devoir la vie à la technologie Autopilot : « Je suis sur la voie de droite, c’est une zone [où la vitesse limite minimale est] de 90 km/h et le pilote automatique est réglé à 102 km/h, quand un imbécile roulant probablement à 150 peut-être 160 km/h surgit de nulle part. Je suppose qu’il a l’intention de se faufiler entre moi et la voiture sur la voie de gauche, mais il n’y avait pas assez d’espace et le pilote automatique a pris des mesures évasives et a probablement sauvé ma vie aujourd’hui. »
Il a partagé une séquence filmée par l’enregistreur vidéo de conduite (dashcam) de sa Tesla Model 3 dans laquelle on peut voir la voiture apparemment fautive qui essaye de le dépasser en s’engouffrant dans un trou de souris. Pendant sa manœuvre de dépassement, la voiture noire surgit brusquement depuis la voie située à l’extrême gauche sur l’autoroute pour doubler le véhicule gris qui la précède, mais menace au même moment de percuter la Tesla Model 3 à droite.
Le système d’évitement de collision latérale automatique de la Tesla Model 3 a réagi de façon très rapide tout en gardant la voiture sous contrôle : d’abord en orientant la Tesla plus à droite vers une voie temporaire d'accélération/bretelle d'entrée libre à ce moment-là, puis en faisant revenir la Tesla à sa position initiale.
Les blâmes dont l’entreprise est la cible peuvent néanmoins être la résultante d’une politique publicitaire à problème. Le constructeur laisse par exemple la possibilité aux conducteurs de jouer à des jeux vidéo tout en conduisant et renforce ainsi l’image du véhicule autonome qu’il vend à ses clients. C’est d’avis des autorités américaines de la publicité mensongère susceptible d’amener les conducteurs à surestimer les capacités réelles des Tesla. Elon Musk pour sa part répond que les notices d’information qui accompagnent les véhicules de l’entreprise sont claires sur les capacités réelles de l’Autopilot : c’est de l’aide à la conduite.
Source : plainte
Et vous ?
:fleche: Juste retour des choses pour Tesla en raison de sa politique publicitaire ?
:fleche: Quel regard jetez-vous sur les avancées en matière de mise au point de véhicules autonomes ? Partagez-vous les avis selon lesquels l'humain restera incontournable ?
Voir aussi :
:fleche: L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
:fleche: Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
:fleche: Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
:fleche: La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE