IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Embarqué Discussion :

Le mode de conduite entièrement autonome « Mad Max » de Tesla fait l'objet d'une enquête


Sujet :

Embarqué

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    326
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 326
    Par défaut Le mode de conduite entièrement autonome « Mad Max » de Tesla fait l'objet d'une enquête
    Le mode de conduite entièrement autonome « Mad Max » de Tesla, qui encourage une conduite agressive ignorant les limitations de vitesse, fait l'objet d'une enquête des autorités réglementaires américaines

    Les autorités fédérales examinent une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La National Highway Traffic Safety Administration (NHTSA) a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité, qui fait partie du système de conduite entièrement autonome (FSD) de l'entreprise.

    Tesla fait l'objet d'une nouvelle enquête fédérale sur d'éventuels défauts de sécurité dans son système de conduite partiellement automatisé, commercialisé sous le nom de FSD, ou Full Self-Driving (Supervised) aux États-Unis. Cette enquête fait suite à 44 incidents distincts au cours desquels des conducteurs de Tesla utilisant le FSD ont déclaré que le système les avait amenés à commettre des infractions au code de la route. La National Highway Traffic Safety Administration a déclaré que l'enquête concernait environ 2 882 566 véhicules Tesla équipés du FSD.

    En effet, Elon Musk promet une conduite autonome intégrale sans supervision depuis 2016. Environ une décennie plus tard, sa promesse est loin d'être tenue. La version actuelle de son logiciel Full Self-Driving (FSD) présente encore de graves limites techniques et expose les utilisateurs à des risques réels. Lors d'un test du FSD, le logiciel a violemment percuté un obstacle sur la route. Le conducteur n’avait pas les mains sur le volant au moment où le passager signale les débris bien en avance. Le véhicule a été gravement endommagé en raison de l'impact : barre de torsion brisée, composants de la suspension touchés, nombreux avertissements du système.

    Plus récemment, les autorités fédérales examinent une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La National Highway Traffic Safety Administration (NHTSA) a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité, qui fait partie du système de conduite entièrement autonome (FSD) de l'entreprise.

    L'agence a déclaré que son enquête visait à déterminer si ce mode encourageait des comportements contraires au code de la route, tels que le dépassement des limites de vitesse ou les changements de voie brusques. « Le conducteur au volant reste responsable de la conduite du véhicule en toute sécurité et dans le respect de toutes les lois », a déclaré l'agence dans un communiqué.

    Ce regain d'attention intervient alors que la NHTSA poursuit une enquête plus large sur près de trois millions de véhicules Tesla équipés du FSD après avoir reçu des dizaines de plaintes, notamment des signalements de voitures brûlant des feux rouges ou s'engageant dans des intersections malgré les feux tricolores. Selon les données fédérales, ces incidents ont entraîné au moins 14 accidents et 23 blessés.


    La société a précédemment déclaré que le FSD est conçu pour aider les conducteurs attentifs, et non pour les remplacer. Tesla commercialise ce système comme étant capable de naviguer « presque partout » sous la supervision d'un humain. Tesla a d'abord expérimenté un profil de conduite « Mad Max » en 2018 dans le cadre de son premier logiciel Autopilot. Ce concept, qui tire son nom de la franchise cinématographique célèbre pour ses courses-poursuites effrénées, désignait un mode permettant de changer de voie plus rapidement et de gérer le trafic de manière plus assertive.

    La société a discrètement réintroduit cette fonctionnalité ce mois-ci dans une mise à jour logicielle intitulée FSD Version 14.1.2, parallèlement à un mode de conduite plus lent appelé « Sloth Mode ». Des vidéos ont déjà circulé sur les réseaux sociaux, montrant des véhicules en mode « Mad Max » dépassant largement les limites de vitesse locales et ignorant les panneaux stop, ce qui rappelle les controverses antérieures qui avaient contraint Tesla à rappeler plus de 50 000 véhicules en 2022 afin de supprimer la fonction « rolling stop ».

    Pour le secteur des assurances, la dernière mise à jour de Tesla soulève des questions familières mais pressantes. À mesure que les systèmes d'aide à la conduite deviennent plus sophistiqués et plus autonomes dans la pratique, sinon dans la loi, il devient de plus en plus complexe de déterminer la responsabilité en cas d'accident. « Certaines régions des États-Unis sont très litigieuses... ce que vous entendez [aujourd'hui], c'est le langage d'un verdict nucléaire », a déclaré John Farquhar, spécialiste de la gestion des risques liés aux flottes pour les pratiques nationales chez Gallagher.

    Selon la réglementation américaine, le système de Tesla est classé comme « automatisation de niveau 2 », ce qui signifie qu'un être humain doit rester aux commandes et prêt à intervenir. Pourtant, l'appellation de fonctionnalités telles que « Full Self-Driving » (conduite entièrement autonome) ou « Mad Max » peut brouiller cette distinction, créant une confusion non seulement pour les conducteurs, mais aussi pour les assureurs, qui doivent évaluer où se situe la responsabilité lorsque la technologie joue un rôle direct dans une collision.

    « Le langage utilisé par Tesla est important », a déclaré un cadre supérieur chargé de la souscription chez un assureur national, qui s'est exprimé sous couvert d'anonymat car son entreprise examine actuellement son exposition aux réclamations liées à l'aide à la conduite. « Si les conducteurs comprennent mal ce que ces systèmes peuvent faire, la frontière entre l'erreur humaine et la responsabilité du fait des produits commence à s'estomper. »

    Plusieurs assureurs ont déjà signalé une augmentation de la fréquence des réclamations liées aux véhicules équipés de technologies avancées d'aide à la conduite, invoquant le coût des réparations des capteurs et les litiges concernant le comportement des systèmes avant l'impact. L'introduction d'un mode qui encourage explicitement les vitesses plus élevées risque d'accentuer ces préoccupations.

    La NHTSA a renforcé la surveillance des systèmes semi-automatisés au cours de l'année écoulée, mais l'application de la réglementation s'est largement faite a posteriori, à la suite d'accidents ou de rapports publics. En Europe et dans certaines régions d'Asie, les régulateurs ont imposé des limites plus strictes aux changements de voie automatisés et aux réglages de vitesse. Si les enquêteurs américains déterminent que le mode « Mad Max » encourage la conduite illégale, cela pourrait contraindre Tesla à procéder à un nouveau rappel de logiciels et susciter de nouvelles discussions sur la manière de réglementer la dénomination et la commercialisation des fonctions d'automatisation.

    Pour les assureurs, cette affaire représente plus qu'une simple expérience d'un constructeur automobile en matière d'aide à la conduite. Elle souligne à quel point la technologie évolue plus rapidement que les cadres utilisés pour mesurer et évaluer les risques. « L'assurance a toujours consisté à prédire les comportements », a déclaré le responsable des sinistres d'un grand groupe de réassurance. « Mais lorsque le comportement dépend de mises à jour logicielles déployées du jour au lendemain, il ne s'agit plus d'une variable fixe. Elle évolue sous nos pieds. »

    Alors que les régulateurs examinent la dernière mise à jour de Tesla, le résultat pourrait influencer la manière dont les assureurs américains abordent le risque lié à l'automatisation, non seulement pour Tesla, mais aussi pour tous les constructeurs qui s'efforcent de redéfinir ce que signifie conduire.

    Ces enquêtes interviennent alors que les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving (FSD) à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une récente enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Tesla a dissimulé des données, menti et induit la police en erreur afin d'échapper à toute responsabilité dans un accident mortel impliquant son logiciel Autopilot. Il a été reconnu partiellement responsable

    Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance. Les problèmes techniques persistent et le logiciel rebute les clients

    « Le véhicule a soudainement accéléré avec notre bébé à l'intérieur » : la terrifiante vérité sur les raisons pour lesquelles les voitures Tesla continuent de s'écraser
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    95
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 95
    Par défaut
    Basiquement ce que vous pouvez déjà faire avec une voiture normale, bien que cela soit interdit ...

  3. #3
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    353
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 353
    Par défaut
    C'est une vraie actualité ?
    Comment ça peut être possible/légal de commercialiser ça ???

  4. #4
    Membre chevronné
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juin 2022
    Messages
    388
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 21
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Industrie

    Informations forums :
    Inscription : Juin 2022
    Messages : 388
    Par défaut
    Le mode de conduite entièrement autonome
    Déjà ca mériterais une enquête ...
    Un problème sans solution est un problème mal posé. (Albert Einstein)

Discussions similaires

  1. Réponses: 158
    Dernier message: 10/10/2025, 14h55
  2. 3ds max 2012 ne fait que planter.
    Par therev123 dans le forum Développement 2D, 3D et Jeux
    Réponses: 5
    Dernier message: 04/09/2013, 13h50
  3. Longueur max pour le nom des objets Sybase
    Par FHeybati dans le forum Sybase
    Réponses: 1
    Dernier message: 22/02/2011, 16h06
  4. [SQL] Max à partir d'un découpage d'une chaine
    Par magicien72 dans le forum Langage SQL
    Réponses: 6
    Dernier message: 19/12/2007, 12h05
  5. [VB6] Deplacer un objet sur une form en mode Exploitation
    Par Lucas42 dans le forum VB 6 et antérieur
    Réponses: 9
    Dernier message: 30/05/2006, 16h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo