1 pièce(s) jointe(s)
La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord
La version bêta du mode « Full self-driving » de Tesla est désormais disponible en Amérique du Nord,
il est livré sans la mention sur l'obligation de satisfaire aux exigences minimales de sécurité
Le logiciel Full Self-Driving (FSD), qui fait l'objet d'un examen approfondi de la part des régulateurs, est maintenant disponible pour tous ceux qui ont payé pour cette fonction en Amérique du Nord, a annoncé le PDG Elon Musk. « La version bêta de la conduite autonome complète de Tesla est désormais disponible pour toute personne en Amérique du Nord qui en fait la demande », a tweeté Musk, « en supposant que vous ayez acheté cette option. La déclaration de Musk vient à la suite des accusations du ministère californien des véhicules à moteur qui a accusé Tesla de faire des déclarations « fausses ou trompeuses » sur les capacités de ses voitures autonomes.
« L'Autopilot est un système avancé d'aide à la conduite qui améliore la sécurité et la commodité au volant. Lorsqu'il est utilisé correctement, l'Autopilot réduit la charge de travail globale en tant que conducteur. Chaque nouveau véhicule Tesla est équipé de 8 caméras externes, de 12 capteurs à ultrasons et d'un ordinateur de bord qui offrent une couche de sécurité supplémentaire pour aider le conducteur dans ses déplacements », indique Tesla.
Le déploiement de la version bêta a démarré en 2020 avec un petit nombre de clients et s'est depuis progressivement étendu pour être disponible à environ 160 000 conducteurs en octobre de cette année. Pour avoir accès à la version bêta, les conducteurs devaient généralement atteindre un seuil de sécurité minimum avec la fonction intégrée Safety Score de Tesla, ainsi que parcourir 161 000 km en utilisant la fonction avancée d'aide à la conduite Autopilot de la société.
Le constructeur automobile de la Silicon Valley vend son logiciel complémentaire de 15 000 dollars qui permet à ses véhicules de changer de voie et de se garer de manière autonome. Cela vient compléter sa fonction standard "Autopilot", qui permet aux voitures de se diriger, d'accélérer et de freiner dans leur voie de circulation sans intervention du conducteur.
En fin d’année dernière, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la version en cours était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Plus tard, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.
Plusieurs propriétaires ont signalé que leur véhicule avait freiné brusquement lorsque le logiciel FSD de Tesla avait signalé par erreur une collision imminente. Lorsqu'ils fonctionnent correctement, l'alerte de collision avant et le freinage automatique d'urgence fonctionnent de concert pour éviter qu'un véhicule ne percute des objets sur sa trajectoire. Une combinaison de capteurs et de logiciels alerte d'abord les conducteurs d'une collision imminente et, si aucune action n'est entreprise, applique avec force les freins. Les voitures qui reçoivent des alertes fantômes entraînant un freinage d'urgence risquent d'être embouties si elles s'arrêtent rapidement dans un trafic dense ou si elles roulent à grande vitesse. « L'activation du freinage automatique d'urgence au milieu de l'autoroute était terrifiante », a rapporté un conducteur de Tesla.
Tesla critiqué pour sa technologie inachevée
Tesla, qui a été critiqué pour avoir testé sa technologie inachevée sur des routes publiques, fait également l'objet d'une enquête du ministère américain de la Justice concernant les affirmations selon lesquelles les véhicules électriques de la société peuvent se conduire eux-mêmes. Musk a déclaré le mois dernier que le logiciel n'obtiendrait pas l'approbation réglementaire en 2022. Il espère fournir une mise à jour de son « Full self-driving » en 2023 pour montrer aux régulateurs que la technologie est beaucoup plus sûre que le conducteur humain moyen.
Plus tôt ce mois-ci, le Department of Motor Vehicles (DMV) de Californie a accusé Tesla de faire des « déclarations fausses ou trompeuses » sur les capacités de conduite autonome de ses véhicules. Le DMV allègue que les noms Autopilot et FSD, ainsi que le langage utilisé par Tesla pour les décrire, pourraient tromper les utilisateurs en leur faisant croire que les véhicules peuvent fonctionner de manière autonome.
En août dernier, les sénateurs Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission d'enquêter sur la manière dont Tesla fait la publicité de ses logiciels FSD et Autopilot. Les deux législateurs ont ensuite envoyé une lettre à Musk pour « exprimer des inquiétudes importantes » concernant le système d'assistance à la conduite de Tesla, auquel Tesla a répondu en disant que son système pouvait aider les clients à « conduire de manière plus sûre que le conducteur moyen aux États-Unis ».
La semaine dernière, Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3. Dans un cadre plus global, Tesla est à l'origine de 273 des 367 accidents de ce type signalés par 12 constructeurs automobiles à la NHTSA entre le 20 juillet 2021 et le 15 mai de cette année. Sur l'ensemble des accidents signalés, des blessures graves ou des décès sont survenus dans 11 des 98 collisions pour lesquelles des données sur la gravité ont été recueillies. Par ailleurs, 294 autres incidents ne comportaient pas d'informations sur les dommages subis par les occupants du véhicule.
Si l'expression Full Self-Driving entendez, « conduite autonome intégrale » laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.
Et vous ?
:fleche: Quel est votre avis sur la conduite autonome et sur l'Autopilote de Tesla en particulier ?
:fleche: Que pensez-vous du logiciel Full Self-Driving de Tesla ?
:fleche: Pourquoi certaines personnes voient-elles un problème au logiciel Full Self-Driving de Tesla et pas d'autres ?
Voir aussi :
:fleche: Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs
:fleche: Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 dollars
:fleche: Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite, sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla
1 pièce(s) jointe(s)
Les tests de sécurité montrent que le logiciel FSD de Tesla heurte à plusieurs reprises un mannequin d'enfant
Les nouveaux tests de sécurité du projet Dawn montrent que le logiciel de conduite autonome de Tesla heurte à plusieurs reprises un mannequin d'enfant
dans une poussette
The Dawn Project est une organisation qui se consacre à rendre les ordinateurs vraiment sûrs pour l'humanité. L'année dernière, elle a sensibilisé le public aux risques liés à l'utilisation du logiciel de conduite autonome de Tesla en réalisant divers tests de sécurité. Récemment, elle nous a présenté un nouveau test révélant que le système de la voiture heurtera à plusieurs reprises un mannequin d'enfant dans une poussette.
The Dawn Project a été fondé par Dan O'Dowd, un expert en création de logiciels. The Dawn Project reconnaît que la vie humaine dépend de systèmes contrôlés par ordinateur, qui sont exposés à toutes sortes de risques lorsqu'ils sont connectés à l'internet. Les mauvais acteurs qui possèdent les connaissances techniques appropriées peuvent avoir de graves répercussions sur l'infrastructure de l'humanité.
Mais le premier danger auquel l'entreprise s'attaque est le déploiement par Elon Musk de dangereuses voitures entièrement autonomes (FSD). The Dawn Project offre même un prix de 15 000 dollars à la première personne qui démontrera un produit commercial actuel et tout nouveau d'une entreprise du classement Fortune 500 qui présente un dysfonctionnement de sécurité critique toutes les huit minutes en moyenne, qui est sur le marché depuis au moins six mois, qui est actuellement en production et qui n'a jamais été rappelé. Le prix de 15 000 dollars est inspiré par le fait qu'Elon Musk a augmenté le prix du logiciel de conduite autonome 10.69.2 à ce prix précis.
Le dernier test de sécurité effectué par The Dawn Project a été réalisé dans un parking public de Santa Barbara, en Californie, en octobre 2022. L'entreprise a utilisé la dernière version du logiciel disponible à ce moment-là, Tesla Full Self-Driving Beta 10.69.2.2.
Un mannequin d'enfant dans une poussette a été placé sur la trajectoire de la Tesla. Le conducteur a programmé la Tesla avant chaque essai, et les images montrent clairement que la conduite autonome complète est engagée. Une lampe de poche a été placée au-dessus de la pédale d'accélérateur pour montrer qu'elle n'a pas été enfoncée pendant le test.
La voiture accélère jusqu'à 48 km/h et heurte la poussette de plein fouet, car le logiciel n'a identifié aucun obstacle. Le seul message d'erreur affiché sur l'écran de la Tesla était : "Supercharging Unavailable : ajoutez un mode de paiement à votre compte Tesla".
The Dawn Project a également testé récemment la fonction de conduite autonome complète dans d'autres scénarios réalistes. Les résultats ont indiqué que le logiciel contournait les bus scolaires à l'arrêt avec le bras du panneau d'arrêt déployé et leurs feux clignotants. De plus, ils ont montré que la Tesla n'identifiait pas les limites variables des zones scolaires, de sorte qu'elle ne ralentissait pas même en présence d'enfants.
Un autre test a donné des résultats encore plus horribles : il a révélé que la FSD de Tesla a écrasé à plusieurs reprises des mannequins de taille enfantine de différentes tailles sur son passage, surtout lorsqu'ils étaient en mouvement. Le projet Dawn demande l'interdiction du logiciel FSD sur les routes jusqu'à ce que le géant de la technologie prouve que la voiture peut réagir lorsqu'elle rencontre des enfants.
De plus, The Dawn Project a prouvé que le logiciel ignorait à plusieurs reprises les panneaux "Do Not Enter" et "Road Closed", même si le véhicule avait la possibilité de reconnaître ces panneaux et de s'arrêter pendant les tests.
Tous ces résultats sont certainement inquiétants - même si la fonction FSD de Tesla est indéniablement innovante, les clients de Tesla qui optent pour cette fonction doivent savoir qu'elle est actuellement en cours de développement et qu'il ne faut pas s'y fier uniquement. Jusqu'à présent, Tesla a menacé de poursuivre The Dawn Project pour sa campagne nationale, qui comprenait des publicités télévisées et des pages dans le New York Times. Dan O'Dowd a répliqué en proposant une démonstration publique des défauts de sécurité de la conduite autonome intégrale de Tesla, en septembre dernier. Il sera intéressant de voir si ces nouveaux tests inciteront Tesla à prendre des mesures, qu'il s'agisse de poursuivre l'action en justice ou de résoudre les problèmes.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des allégations du Dawn Project sur le FSD ?
:fleche: Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?
:fleche: Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
Voir aussi :
:fleche: Tesla demande le retrait en ligne d'une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d'un enfant, et ravive le débat sur la fiabilité de son système de conduite dit autonome
:fleche: Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique
:fleche: L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée
:fleche: Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision", et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu
Tesla : « notre échec à fabriquer de véritables voitures dotées d'une conduite autonome n'est pas une fraude »
Tesla : « notre échec à fabriquer de véritables voitures dotées d'une conduite autonome n'est pas une fraude »
l'entreprise tente de justifier son échec après des années de promesses non tenues
Après plusieurs années de déclarations farfelues sur l'arrivée imminente d'une voiture à conduite autonome, Tesla semble s'être finalement rendu à l'évidence. Sous le coup d'un recours collectif aux États-Unis pour fraude et escroquerie en ce qui concerne les logiciels Autopilot et Full Self-Driving (FSD), les avocats de Tesla ont déclaré récemment que le constructeur automobile américain pourrait admettre son échec, mais ont réfuté les accusations de duperie. Tesla a augmenté à plusieurs reprises le prix du FSD, mais par contre, il n'a jamais réussi à livrer un logiciel de conduite autonome de niveau 3. L'Autopilot et le FSD sont de niveau 2.
Elon Musk, PDG de Tesla, a déclaré à de nombreuses reprises depuis 2015 que les voitures Tesla seraient entièrement autonomes dans un délai relativement court, soit deux ans ou moins. Cependant, des années après que les délais qu'il s'est lui-même imposés se sont envolés, ce n'est toujours pas arrivé. Malgré les noms trompeurs des logiciels Autopilot et Full Self-Driving et les publicités de Tesla qui prêtent également parfois à confusion, les clients sont invités à garder leurs mains sur le volant en toute circonstance, même lorsque ces fonctions sont activées. Désormais, les clients semblent s'être lassés de l'attente et demandent des comptes à l'entreprise.
Le constructeur de voitures électriques fait l'objet d'un recours collectif de la part de clients des technologies Autopilot et Full Self-Driving (FSD). Ils affirment avoir été escroqués, dupés par les déclarations répétées du PDG Elon Musk et les documents marketing de Tesla au cours des six dernières années. Les plaignants affirment que ces différentes déclarations laissaient entendre que la conduite entièrement autonome était imminente. Mais à la date d'aujourd'hui, aucune voiture Tesla n'est capable de se diriger de manière totalement autonome, et pourtant l'entreprise vend ce qu'elle appelle "une capacité de conduite autonome complète" pour 15 000 dollars.
Pour sa défense, les avocats de Tesla ont déclaré que "le simple fait de ne pas réaliser un objectif ambitieux à long terme ne constitue pas une fraude". Cet argument est contenu dans une motion de rejet de l'affaire qui a été déposée au début du mois devant le tribunal de district américain de San Francisco. Si l'affaire va de l'avant, elle pourrait conduire à la déposition d'employés de Tesla qui ont participé au développement de la technologie et révéler ce que Musk savait et ne savait pas sur ses véritables capacités lorsqu'il a fait de nombreuses prévisions au fil des ans, y compris les nombreuses déclarations du milliardaire sur les robotaxis Tesla.
Musk avait prédit qu'il y aurait un million de robotaxis Tesla sur la route d'ici la fin de 2020, que les clients pourraient gagner 30 000 dollars par an en les louant et que leurs voitures prendraient de la valeur. Par exemple, la plainte cite un tweet de 2016 dans lequel Musk a noté : « une voiture Tesla serait capable de se conduire toute seule à travers les États-Unis d'ici l'année prochaine ». Plus tard cette année-là, Tesla a publié une vidéo, également citée dans le procès, qui, selon le constructeur automobile, montrait une de ses voitures se conduisant toute seule. Cependant, selon l'action en justice, la vidéo publiée par Tesla était trompeuse.
Les avocats de Tesla tentent d'empêcher que ces informations soient rendues publiques. La demande de rejet de l'affaire repose sur l'affirmation de Tesla selon laquelle les documents signés par les clients lors de l'achat de leur voiture les obligent à déposer individuellement des plaintes par le biais du système d'arbitrage privé. Un procès public permet aux clients de déposer des plaintes en tant que grand groupe, appelé "classe" ; l'arbitrage signifie que chaque client est seul. Alors qu'un procès public pourrait révéler des informations sur l'état du développement les logiciels Tesla à un moment donné, l'arbitrage garderait ce témoignage secret.
Des milliers de poursuites ont été engagées contre Tesla et Musk. Le recours à l'arbitrage privé est souvent la première réaction de Tesla face à des poursuites judiciaires publiques. Le cas de Cristina Balan est un exemple palpable. Ancienne ingénieure de Tesla, elle affirme avoir été diffamée par Tesla en 2017, ce qui a porté atteinte à sa réputation professionnelle, mais grâce à une série d'arguments procéduraux, les avocats de Tesla ont évité que l'affaire soit portée devant un tribunal public. Mais dans le cas de la nouvelle plainte, la litanie d'affirmations et de promesses faites par Musk et Tesla seront familières à toute personne qui suit Musk de près.
L'action en justice, déposée par le cabinet californien Cotchett, Pitre & McCarthy, cite également de nombreux cas d'accidents impliquant l'utilisation de la technologie d'aide à la conduite de Tesla. La plainte affirme que même parmi les systèmes avancés d'aide à la conduite, le système Autopilot de Tesla est en deçà de ceux qui sont désormais disponibles sur les marchés mondiaux auprès d'autres sociétés, dont Mercedes-Benz et Honda. Consumer Report estime d'ailleurs que le Super Cruise de Cadillac surpasse l'Autopilot de Tesla. Le nom Autopilot a fait l'objet de critiques de la part de groupes de sécurité et même de gouvernements.
Tesla et Musk ont défendu le nom, car, dans les avions, le système de pilotage automatique nécessite toujours un pilote actif et toujours alerte aux commandes. Un tribunal allemand a statué en 2020 que Tesla ne devait pas être autorisé à faire la publicité de sa technologie d'aide à la conduite sous le nom d'"Autopilot", bien que la plainte ait été rejetée par la suite, permettant l'utilisation du terme. Tesla et Musk ont déclaré qu'avec les futures améliorations logicielles qui seront livrées "en direct" (over the air), les voitures équipées de ces systèmes seront bientôt capables de se conduire elles-mêmes sans l'intervention d'une personne.
Ce n'est cependant pas encore le cas, et Tesla n'a pas respecté ses propres prévisions quant à la date à laquelle cela serait possible. Les organismes de réglementation enquêtent sur la technologie automatisée de Tesla depuis des années. Plusieurs accidents mortels ont été liés au logiciel Autopilot. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a ouvert plusieurs enquêtes, notamment sur les raisons pour lesquelles les Teslas semblent s'écraser de manière disproportionnée sur les véhicules d'urgence stationnés sur le bord de la route. L'agence n'a pas fixé de calendrier public pour une détermination.
Source : Les documents de la plainte
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des arguments avancés par Tesla pour tenter de faire rejeter la plainte ?
:fleche: Selon vous, ces arguments sont-ils recevables ? Pensez-vous que Tesla a trompé et escroqué ses clients ?
:fleche: Selon vous, les promesses non tenues d'Elon Musk et de Tesla constituent-elles une fraude ?
:fleche: Que pensez-vous de la communication d'Elon Musk concernant les développements de l'Autopilot et du FSD ?
:fleche: Selon vous, la justice doit-elle contraindre Tesla à changer le nom des produits FSD et Autopilot ?
Voir aussi
:fleche: Malgré les avertissements, de nombreuses personnes considèrent les véhicules partiellement automatisés comme des véhicules autonomes, le nom "Autopilot" peut induire les automobilistes en erreur
:fleche: Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2, « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »
:fleche: Un tribunal allemand interdit les déclarations publicitaires de Tesla relatives à la conduite autonome et accuse le constructeur automobile de relayer dans ses publicités des allégations trompeuses