IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 224
    Points
    125 224
    Par défaut Elon Musk a dissous l'équipe Supercharger après que la directrice a refusé de licencier davantage de personne
    Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis,
    Les accidents ont fait 10 morts depuis 2016

    Les voitures électriques et la conduite autonome sont les plus grandes transformations que connaît l'industrie automobile. Il est difficile de contester que Tesla est en tête sur ces deux plans, mais c'est le dernier qui a placé le constructeur automobile sous la loupe des autorités américaines de réglementation de la sécurité. La National Highway Traffic Safety Administration (NHTSA) a déclaré jeudi qu'elle avait ouvert 30 enquêtes sur des accidents de Tesla impliquant 10 décès depuis 2016 où des systèmes avancés d'aide à la conduite étaient soupçonnés d'avoir été utilisés. L’agence a donné des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués, selon des feuilles de calcul vues par Reuters. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. Maintenant, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Nom : t01.jpg
Affichages : 3460
Taille : 30,3 Ko

    Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

    Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

    La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

    Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

    Nom : t02.jpg
Affichages : 3286
Taille : 63,4 Ko
    L’accident du 17 avril qui a tué deux hommes au Texas

    Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

    La semaine dernière, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

    Aucune loi aux États-Unis ne rend illégales les voitures entièrement autonomes

    En ce qui concerne les lois régissant les véhicules autonomes, les États-Unis sont constitués d'un ensemble de législations qui varient d'un État à l'autre, mais actuellement, il n'existe aucun endroit où il est strictement illégal de posséder et d'utiliser un véhicule totalement autonome. Par ailleurs, un premier projet de loi américain sur les voitures autonomes, qui assouplirait de nombreux règlements fédéraux concernant les véhicules autonomes, avait reçu un appui du Congrès en décembre 2018.

    S'il était adopté, le projet de loi permettrait aux fabricants de véhicules tels que Tesla et General Motors de développer et de commercialiser ces véhicules sans action réglementaire spécifique. En même temps, le projet de loi collecterait des informations sur les accidents au niveau fédéral pour les systèmes de conduite autonome de niveau 2 tels que le pilote automatique Tesla et la Super Cruise de GM.

    Certains États ont toutefois adopté des lois les réglementant ou les autorisant, mais aucun État ne les a carrément interdites. À ce jour, vingt-neuf États, dont l'Alabama, l'Arkansas, la Californie, le Colorado, le Connecticut et la Floride ont adopté une législation relative aux véhicules autonomes.

    Dans une lettre adressée le 1er février au ministère américain des Transports, le président du NTSB, Robert Sumwalt, a exhorté le ministère à promulguer des règlements régissant les systèmes d'aide à la conduite tels qu'Autopilot, ainsi que les essais de véhicules autonomes. La NHTSA s'est principalement appuyée sur des directives volontaires pour les véhicules, adoptant une approche non interventionniste afin de ne pas entraver le développement de nouvelles technologies de sécurité.

    Sumwalt a déclaré que Tesla utilise les personnes qui ont acheté les voitures pour tester son logiciel de "conduite entièrement autonome" sur les routes publiques avec une surveillance ou des exigences de rapport limitées. « Étant donné que la NHTSA n'a mis en place aucune exigence, les fabricants peuvent faire rouler et tester des véhicules pratiquement n'importe où, même si l'emplacement dépasse les limites du système de contrôle du véhicule autonome (AV) », a écrit Sumwalt.

    Il a ajouté : « Bien que Tesla inclue un avertissement selon lequel "les fonctionnalités actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome", l'approche non interventionniste de la NHTSA en matière de surveillance des tests des AV pose un risque potentiel pour les automobilistes et les autres usagers de la route ». Cependant, ces derniers mois, la NHTSA, qui a le pouvoir de réglementer les systèmes de conduite automatisée et de demander des rappels si nécessaire, semble avoir développé un intérêt renouvelé pour ces systèmes.

    Malgré les milliards de dollars dépensés jusqu'à présent, les constructeurs automobiles n'ont pas encore produit de véhicule complètement autonome. Le système de Tesla a atteint le niveau 2 d'autonomie, selon l'échelle de la Society of Automotive Engineers, ce qui est encore loin de l'autonomie complète et nécessite la présence d'une personne sur le siège du conducteur qui peut prendre le contrôle si nécessaire.

    La feuille de calcul de la NHTSA indique également que l’agence a ouvert six autres enquêtes sur six autres accidents impliquant des systèmes d'aide à la conduite, dont deux impliquant des véhicules Cadillac dans lesquels aucun blessé n'a été signalé. Les quatre autres comprennent deux accidents impliquant un Lexus RX450H 2012 et un Navya Arma 2017 dans lesquels aucun blessé n'a été signalé.

    Les deux autres impliquent des véhicules Volvo XC90 de 2017, dont un véhicule d'essai à conduite autonome d'Uber Technologies qui a heurté et tué une femme en Arizona en 2018. Uber a pris une série de décisions de développement qui ont contribué à la cause de l'accident et a désactivé les systèmes de freinage automatique d'urgence dans le véhicule Volvo XC90, ont constaté les enquêteurs de sécurité.

    Source : NHTSA

    Et vous ?

    Quel commentaire faites-vous du nombre d’accidents impliquant Autopilot de Tesla depuis cinq ans ?
    Que pensez-vous de la progression de la conduite autonome ?

    Voir aussi :

    Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flammes
    Vous devez désormais être éveillé et assis dans le siège du conducteur pour conduire une Tesla, la caméra de l'habitacle veillera à cela lorsque Autopilot est activé
    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
    Une conductrice de secours d'Uber inculpée dans un accident de conduite autonome de 2018 qui a tué une femme, pour avoir été distraite dans les moments précédant l'accident mortel
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre régulier Avatar de Picarunix
    Femme Profil pro
    Lycéen
    Inscrit en
    Octobre 2015
    Messages
    31
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Lycéen

    Informations forums :
    Inscription : Octobre 2015
    Messages : 31
    Points : 74
    Points
    74
    Par défaut La conduite autonome n'est pas pour demain.
    Les accidents en Tesla sont un mélange d'insouciance du conducteur qui devient un occupant passif du véhicule, et de faits impromptus.
    La trop grande confiance accordée à ce système par son fabricant et par ses utilisateurs ...

    Par contre, je crois que lorsque tous les véhicules autonomes seront inter-reliés lors de leurs déplacements, le nombre d'accidents sera très réduit.
    Il va falloir du temps avant que ça n'arrive et d'autre part, l'évènement l'impromptu lui, restera à charge du conducteur attentif.

  3. #3
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 416
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 416
    Points : 4 748
    Points
    4 748
    Par défaut
    Citation Envoyé par Picarunix Voir le message
    Par contre, je crois que lorsque tous les véhicules autonomes seront inter-reliés lors de leurs déplacements, le nombre d'accidents sera très réduit.
    Par définition, si un véhicule a besoin d'être relié à un autre, ils ne sont PAS autonome.

    Il est absolument indispensable que les voitures autonomes soient le moins connectés possible, et dans l'absolu, pas du tout connectés.
    Il faut absolument que les voitures puissent comprendre la situation par elle même, avec leurs capteurs embarqués uniquement. Autrement, le spoofing rendra tout très manipulable.

  4. #4
    Membre chevronné

    Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Février 2004
    Messages
    758
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information

    Informations forums :
    Inscription : Février 2004
    Messages : 758
    Points : 2 086
    Points
    2 086
    Par défaut
    10 morts et 30 accidents en enquête en 10 ans? Je trouve ca pour ma part que ce sont de bien meilleurs statistiques que celles avec les conducteurs humains.

  5. #5
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 578
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 578
    Points : 7 355
    Points
    7 355
    Par défaut
    Citation Envoyé par blbird Voir le message
    10 morts et 30 accidents en enquête en 10 ans? Je trouve ca pour ma part que ce sont de bien meilleurs statistiques que celles avec les conducteurs humains.
    2016, selon l'article, donc 5 ans et pas 10 ans.

    De plus, des Tesla tu n'en a sans doute pas tant que ça comparé aux millions de véhicules dans le monde. Et là on parle des accidents qui ont été liés à la conduite assistée, pas ceux provoqués par les conducteurs directement, qui viennent sans doute s'ajouter aux statistiques de base (pas d'infos là dessus).

    Du coup, pour un système que Tesla vendait comme "autonome" il n'y a pas si longtemps que ça, ça la fout mal - note que maintenant ils appellent ça conduite "assistée", ce qui est déjà plus honnête.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  6. #6
    Expert éminent sénior Avatar de Uther
    Homme Profil pro
    Tourneur Fraiseur
    Inscrit en
    Avril 2002
    Messages
    4 563
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Pyrénées Orientales (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Tourneur Fraiseur

    Informations forums :
    Inscription : Avril 2002
    Messages : 4 563
    Points : 15 507
    Points
    15 507
    Par défaut
    De toute façon trente accident en valeur absolue ça ne veut rien dire, ça peut être énorme comme rien du tout en fonction des détails. Sans des chiffres plus précis qui permettent de rapprocher ces résultats à ceux des voitures sans assistance, on ne peut pas vraiment conclure quoi que ce soit.
    Encore une fois on a droit à un article sans intérêt sur une société d'Elon Musk qui relance un débat inutile et basé sur rien d'analysable. C'est vraiment une salle habitude des médias que de chercher avant tout la controverse et de ne pas creuser ce qui est important.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 063
    Points
    199 063
    Par défaut Tesla doit désormais signaler les accidents de son Autopilot au gouvernement ou s'exposer à des amendes
    Tesla doit désormais signaler les accidents de son Autopilot au gouvernement ou s'exposer à des amendes,
    d'après une décision de l'agence fédérale chargée de la sécurité routière

    La National Highway Traffic Safety Administration (NHTSA), une agence fédérale américaine des États-Unis chargée de la sécurité routière, a franchi une étape importante dans sa mission en publiant une nouvelle règle qui lèvera le voile du secret sur la question de savoir si les fonctionnalités de conduite semi-autonome rendent réellement la conduite plus sûre.

    En vertu de la nouvelle règle de la NHTSA, les entreprises doivent signaler tous les accidents dans lesquels des fonctions d'assistance à la conduite dites « semi-autonomes » telles que l'assistance à la direction ou le maintien de voie automatique sont impliquées, y compris Autopilot de Tesla et les options qui peuvent apporter la confusion comme « Full Self-Driving Beta ». La règle s'appliquera également aux entreprises exploitant des programmes pilotes de conduite autonome comme Waymo, Zoox et Cruise. Cela permettra non seulement à l'agence gouvernementale indépendante de mieux comprendre à quel point ces systèmes sont réellement sûrs, mais lui permettra également de repérer des modèles de systèmes particulièrement dangereux.

    La nouvelle règle stipule que tout accident impliquant un système semi-autonome et « une blessure conduisant à une hospitalisation, un décès, un remorquage de véhicule, un déploiement d'airbag ou un usager de la route vulnérable comme un piéton ou un cycliste » doit être signalé à la NHTSA dans la journée suivant l'annonce de l'accident suivie par une mise à jour sur la situation 10 jours plus tard. Les entreprises doivent également signaler les accidents impliquant des blessures ou des dommages matériels sur une base mensuelle, à mettre à jour mensuellement avec de nouvelles informations. Le Washington Post a signalé que le non-respect de cette nouvelle règle entraînerait des amendes de 22 992 $ par jour, une pénalité maximale de « plus de 100 millions de dollars » et un envoi du dossier au ministère de la Justice.

    Nom : tesla.png
Affichages : 2549
Taille : 133,7 Ko

    Des rapports doivent être soumis pour tout incident à signaler, au sujet duquel une entreprise reçoit un avis, à compter de 10 jours après que l'entreprise en ait reçu l'injonction. Les rapports doivent être soumis à la NHTSA par voie électronique en utilisant un formulaire qui requiert des informations importantes concernant l'accident. La NHTSA utilisera ces informations pour identifier les accidents pour un suivi.

    La NHTSA a déclaré dans le communiqué de presse qu'elle utiliserait les données collectées pour « aider l'agence à identifier les problèmes de sécurité potentiels et les impacts résultant de l'utilisation de technologies de pointe sur les routes publiques et à accroître la transparence ».

    « L'aide à la conduite automobile de niveau 2 est une fonctionnalité de plus en plus courante sur de nombreux nouveaux véhicules et fournit des fonctions d'assistance à la conduite qui combinent des technologies, telles que l'assistance au centrage de voie et le régulateur de vitesse adaptatif, où le véhicule est capable de contrôler certains aspects de la direction et de la vitesse. Les conducteurs, cependant, doivent rester engagés et vigilants à tout moment lorsqu'ils utilisent ces systèmes, car ils ne sont pas conçus et ne sont pas en mesure d'effectuer les composants de fonctionnement critiques de la tâche de conduite. Les véhicules équipés de l'aide à la conduite automobile, capables d'effectuer l'intégralité de la tâche de conduite dans des circonstances limitées, ne sont actuellement pas vendus aux consommateurs, mais sont peu utilisés sur les routes publiques du pays pour les tests, le covoiturage et la livraison de marchandises.

    « La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».

    Nom : autopilot.png
Affichages : 2320
Taille : 185,2 Ko

    Des accidents liés au système Autopilot de Tesla

    Le contexte s'y prête fortement. Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

    Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

    La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

    Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

    Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

    En juin, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

    Conclusion

    Ce changement apparemment mineur pourrait avoir un impact important sur la sécurité routière, car le public ne sait tout simplement pas à quel point ces systèmes sont bons, à quelle fréquence ils fonctionnent mal ou dans quelle mesure ils sont mal utilisés par les conducteurs. Jusqu'à présent, pratiquement toutes les données disponibles sur les fonctions de conduite informatisées, allant des diverses fonctionnalités de direction automatique, que pratiquement tous les constructeurs automobiles offrent de nos jours, au service de taxi entièrement autonome de Waymo en passant par Autopilot semi-autonome de Tesla, provenaient des entreprises elles-mêmes, qui ont un intérêt évident à faire en sorte que leur produit paraisse aussi sûr que possible. Cela n'a laissé au grand public qu'une anecdote occasionnelle (ou, dans le cas de Tesla, fréquente) sur une mauvaise utilisation ou un dysfonctionnement. Mais bientôt, le public devrait avoir des informations réelles pour déterminer si les accidents et dysfonctionnements ne sont que de simples anecdotes ou s'il s'agit de quelque chose de plus fréquent.

    Cette décision pourrait également signaler que la NHTSA se réveille de son long sommeil de complaisance.

    Source : NHTSA

    Voir aussi :

    L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
    Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 063
    Points
    199 063
    Par défaut Autopilot : les USA enquêtent après que 11 Tesla se sont écrasées sur des véhicules d'urgence
    Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence,
    s'inquiétant de sa capacité à garder le conducteur impliqué

    Les régulateurs du département américain de la sécurité routière, la National Highway Traffic Safety Administration (NHTSA), ouvrent une enquête sur le système Autopilot de Tesla après que des voitures utilisant cette fonction se soient écrasées contre des véhicules de secours.

    La National Highway Transportation Safety Administration a annoncé l'ouverture d'une enquête et elle englobe 765 000 Teslas vendues aux États-Unis, une fraction importante de toutes les ventes de l'entreprise dans le pays. L'agence indique que l'enquête couvrira 11 accidents depuis 2018 ; les accidents ont fait 17 blessés et un mort :

    « Depuis janvier 2018, l'Office of Defects Investigation (ODI) a identifié onze accidents dans lesquels des modèles Tesla de diverses configurations ont rencontré des scènes de premiers intervenants et ont par la suite heurté un ou plusieurs véhicules impliqués dans ces scènes. Les incidents sont répertoriés à la fin de ce résumé par date, ville et état. »

    « La plupart des incidents ont eu lieu après la tombée de la nuit et les scènes d'accident rencontrées comprenaient des mesures de contrôle de la scène telles que des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Il a été confirmé que les véhicules en cause impliqués étaient en mode Autopilot ou Traffic Aware Cruise Control pendant l'approche des accidents. »

    « Autopilot est un système avancé d'assistance à la conduite (ADAS) dans lequel le véhicule maintient sa vitesse et son centrage sur la voie lorsqu'il est engagé dans son domaine de conception opérationnelle (ODD). Avec l'ADAS actif, le conducteur est toujours responsable de la détection et de la réponse aux objets et événements (OEDR), par exemple, l'identification des obstacles sur la chaussée ou des manœuvres défavorables des véhicules voisins pendant la tâche de conduite dynamique (DDT). »

    « L'ODI a ouvert une évaluation préliminaire du système SAE de niveau 2 ADAS (pilote automatique) pour l'année modèle 2014-2021, modèles Y, X, S et 3. L'enquête évaluera les technologies et les méthodes utilisées pour surveiller, assister et appliquer le l'engagement du conducteur dans la tâche de conduite dynamique pendant le fonctionnement du pilote automatique. L'enquête évaluera en outre l'OEDR des véhicules lorsqu'ils sont engagés en mode pilote automatique, et l'ODD dans lequel le mode pilote automatique est fonctionnel. L'enquête comprendra également l'examen des circonstances contributives des accidents confirmés énumérés ci-dessous et d'autres accidents similaires. »

    Liste des incidents :
    • 07/10/2021 San Diego CA
    • 19/05/2021 Miami FL
    • 17/03/2021 Lansing MI
    • 27/02/2021 Comté de Montgomery TX
    • 26/08/2020 Charlotte NC
    • 30/07/2020 Comté de Cochise AZ
    • 22/01/2020 West Bridgewater MA
    • 29/12/2019 Cloverdale EN
    • 10/12/2019 Norwalk CT
    • 29/05/2018 Laguna Beach CA
    • 22/01/2018 Culver City CA »


    Nom : tesla.png
Affichages : 15929
Taille : 37,1 Ko

    La NHTSA signale que tous les accidents en question ont eu lieu de nuit et que des outils de signalisation avaient été mis en place par les équipes pour délimiter les zones d’interventions, comme des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Elle précise également que les fonctionnalités comme Autopilot et Traffic Aware Cruise Control étaient activées.

    La NHTSA a précisé que l’enquête devra montrer si, oui ou non, « la technologie et les méthodes utilisées pour assister et contrôler la conduite et faire en sorte que le conducteur reste attentif » fonctionnent.

    L'enquête est un autre signe que la NHTSA adopte une position plus ferme sur la sécurité des véhicules automatisés que sous les administrations précédentes. Auparavant, l'agence était réticente à réglementer la nouvelle technologie de peur d'entraver l'adoption des systèmes potentiellement salvateurs.

    L'enquête porte sur l'ensemble de la gamme de modèles actuels de Tesla, les modèles Y, X, S et 3 des années modèles 2014 à 2021.

    Le National Transportation Safety Board, qui a également enquêté sur certains des accidents de Tesla datant de 2016, a recommandé que la NHTSA et Tesla limitent l'utilisation d'Autopilot aux zones où il peut fonctionner en toute sécurité. Le NTSB a également recommandé que la NHTSA exige que Tesla dispose d'un meilleur système pour s'assurer que les conducteurs font attention. La NHTSA n'a donné suite à aucune des recommandations. Le NTSB n'a aucun pouvoir d'exécution et ne peut que faire des recommandations à d'autres agences fédérales.

    La NHTSA s'intéresse à l'attention requise du conducteur une fois Autopilot activé

    Tesla a fait l'objet d'un examen minutieux quant à la façon dont Autopilot vérifie l'attention des conducteurs lorsque le système est activé. Dans une évaluation des systèmes avancés d'aide à la conduite (ADAS), Autopilot a reçu des notes moyennes dans le programme européen d'évaluation des nouvelles voitures. Le système a été entravé par sa relative incapacité à garder les conducteurs engagés dans la route.

    Comme beaucoup d'autres systèmes ADAS, Autopilot exige qu'un conducteur garde les mains sur le volant, bien que de tels systèmes puissent être facilement trompés en plaçant un poids sur l'un des rayons du volant. Une enquête récente de Car and Driver a révélé qu'il fallait entre 25 et 40 secondes pour que le véhicule émette un avertissement lorsque les conducteurs retirent les mains du volant, selon le modèle. Si les conducteurs ne répondaient pas, la voiture roulerait encore 30 secondes avant de commencer à freiner. À grande vitesse sur autoroute, cela pourrait entraîner le fonctionnement du système sans implication du conducteur sur 1,6 kilomètre.

    À la suite d'un accident en janvier 2018 en Californie, le National Transportation Safety Board a critiqué la façon dont Tesla tente de garder les conducteurs engagés. Lors de cet incident, qui fait également partie de l'enquête de la NHTSA, une Model S 2014 a bloqué un camion de pompiers dans la voie réservée aux véhicules à occupation multiple (VMO) de l'Interstate 405 à Culver City. Le conducteur de la Tesla avait activé Autopilot et suivait un autre véhicule dans la voie réservée aux VOM lorsque le véhicule de tête a changé de voie pour éviter le camion de pompiers garé. Autopilot n'a ni dévié ni freiné, et le conducteur, qui mangeait un bagel, n'a pas repris le contrôle du véhicule. La Tesla a heurté le camion de pompiers à 50 km/h, selon le rapport d'accident.

    Le National Transportation Safety Board a déclaré que l'inattention du conducteur était la cause probable de l'accident « en raison de l'inattention et de la dépendance excessive au système avancé d'aide à la conduite du véhicule; la conception d'Autopilot Tesla, qui a permis au conducteur de se désengager de la tâche de conduite*; et l'utilisation du système par le conducteur d'une manière incompatible avec les instructions et les avertissements du fabricant ».

    Des modifications apportées à Autopilot

    Tesla a récemment commencé à modifier le fonctionnement d'Autopilot, abandonnant le capteur radar des modèles 3 et Y au profit de caméras supplémentaires (les modèles S et X conserveront le radar dans un avenir prévisible). Comme le montrent les accidents qui font partie de l'enquête NHTSA, les données radar ne garantissent pas que les systèmes ADAS détecteront correctement les obstacles sur la chaussée, bien que généralement, des capteurs supplémentaires puissent aider les systèmes à obtenir une image complète de la scène. Étant donné que les données radar et lidar sont essentiellement une série de mesures, elles aident à déterminer à quelle distance un véhicule se trouve d'un objet. Bien que les systèmes ADAS puissent obtenir les mêmes informations à partir d'images de caméra, ils nécessitent des calculs plus compliqués qu'avec un radar ou un lidar. Il n'est pas clair si l'enquête de la NHTSA inclut les nouveaux modèles de Tesla à caméra uniquement.

    On ne sait pas non plus si l'enquête affectera la fonction dite d'autoconduite complète de Tesla, dont des versions bêta ont été publiées pour un groupe de conducteurs. Les vidéos du système en action montrent qu'il s'agit d'un travail en cours et qu'il nécessite l'attention du conducteur à tout moment.

    Source : NHTSA
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 812
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 812
    Points : 5 827
    Points
    5 827
    Par défaut
    Il y a des rapides dans l'administration américaine... Il faut attendre 11 crashs inexpliqués avant de lancer des investigations?

    Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!

  10. #10
    Membre à l'essai
    Profil pro
    Inscrit en
    Octobre 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1
    Points : 16
    Points
    16
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
    En voilà un de commentaire intelligent et pertinent...

  11. #11
    ALT
    ALT est déconnecté
    Membre émérite
    Avatar de ALT
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2002
    Messages
    1 235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Retraité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2002
    Messages : 1 235
    Points : 2 341
    Points
    2 341
    Par défaut
    Citation Envoyé par Karakoa
    En voilà un de commentaire intelligent et pertinent...
    En effet.

    11 accidents avec 760 000 véhicules (une partie des véhicules [Tesla] vendus, donc en circulation), ce n'est pas énorme.

    Si l'administration devait enquêter à chaque accident... Certes, ça améliorerait la sécurité routière, mais à condition d'être réalisée avec la même rigueur que pour les accidents d'avion.
    On en est (très) loin !

    Maintenant, on peut dire aussi que c'est onze accidents de trop. J'espère que Tesla n'a pas attendu l'enquête pour corriger ces dysfonctionnements. C'est d'ailleurs son intérêt, commercialement.
    Et plus les automatismes seront poussés, plus ce sera complexe.
    On n'a donc pas fini de gloser sur le énième accident provoqué par un véhicule automatique, alors qu'il y en a moins (proportionnellement) que d'accidents provoqués par les humains.
    « Un peuple qui est prêt à sacrifier un peu de liberté contre un peu de sécurité, ne mérite ni l'une, ni l'autre, et finira par perdre les deux. »
    Attribué indistinctement à :
    Thomas Jefferson
    Benjamin Franklin
    Albert Einstein !

  12. #12
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 984
    Points
    36 984
    Par défaut Une agence américaine renforce l'enquête sur l'Autopilot de Tesla, une étape avant un éventuel rappel
    Une agence américaine renforce l'enquête sur l'Autopilot de Tesla, une étape avant un éventuel rappel,
    les voitures Tesla seraient impliquées dans 16 accidents avec des véhicules d'urgence

    La National Highway Traffic Safety Administration (NHTSA) a indiqué le 9 juin qu'elle mettait à niveau son enquête sur les véhicules Tesla modèles Y, X, S et 3, ce qui représente environ 830 000 véhicules équipés de son système avancé d'aide à la conduite Autopilot, une étape obligatoire avant de pouvoir demander un rappel. La NHTSA se concentre sur la fonction Autopilot de Tesla, qui est censée aider les conducteurs à naviguer sur les routes grâce à l'intelligence artificielle, qui détecte les autres véhicules. La société demande aux conducteurs de faire attention à la route et de garder les mains sur le volant lorsqu'ils utilisent l'Autopilot, bien que certains conducteurs l'aient utilisé en état d'ébriété ou assis sur la banquette arrière de la voiture.

    Les 16 accidents à la base de l'enquête ont eu lieu entre janvier 2018 et janvier 2022 et ont fait 15 blessés et un mort. Dans des documents publiés sur son site web, la NHTSA a déclaré que les données judiciaires indiquent que la majorité des conducteurs avaient les mains sur le volant avant l'impact et se conformaient au système tel qu'il a été conçu pour être utilisé. La NHTSA a déclaré cela alors que l'enquête cherche spécifiquement à savoir si la fonction Autopilot finit par miner « l'efficacité de la supervision du conducteur ».

    Nom : tesla2B.png
Affichages : 1991
Taille : 251,6 Ko

    La NHTSA, dans le cadre d'une autre enquête, se penche sur un ensemble distinct de plaintes qui ont été déposées contre des véhicules Tesla qui freinent soudainement à grande vitesse, autrement appelé « freinage de fantaisie ». L'agence a reçu plus de 750 plaintes relatives à ce problème, bien qu'aucun accident ou blessure n'ait été signalé. L'agence a demandé à Tesla de lui fournir davantage d'informations sur sa connaissance du problème.

    La NHTSA a déclaré avoir également « examiné de près 191 accidents » qui n'impliquaient pas de véhicules de premiers secours et a réduit cette liste à 106 accidents après avoir éliminé ceux pour lesquels « les informations disponibles ne permettaient pas une évaluation définitive ». Dans environ la moitié de ces 106 accidents, « il y avait des indications selon lesquelles le conducteur n'était pas suffisamment réactif aux besoins de la tâche de conduite dynamique (DDT), comme en témoigne le fait que les conducteurs n'intervenaient pas lorsque cela était nécessaire ou intervenaient par le biais de commandes inefficaces », a déclaré la NHTSA.

    Dans environ un quart des 106 accidents, « le principal facteur d'accident semble lié au fonctionnement du système dans un environnement dans lequel, selon le manuel du propriétaire de Tesla, des limitations du système peuvent exister, ou des conditions peuvent interférer avec le bon fonctionnement des composants de l'Autopilot. » Ces conditions comprennent « le fonctionnement sur des routes autres que les autoroutes à accès limité, ou le fonctionnement alors que l'on se trouve dans des environnements à faible traction ou visibilité, tels que la pluie, la neige ou la glace. »

    Tesla indique qu'au quatrième trimestre 2021, « nous avons enregistré un accident pour 4,31 millions de kilomètres parcourus au cours desquels les conducteurs utilisaient la technologie Autopilot. Pour les conducteurs qui n'utilisaient pas la technologie Autopilot, nous avons enregistré un accident pour chaque 1,59 million de kilomètres parcourus. À titre de comparaison, les données les plus récentes de la NHTSA montrent qu'aux États-Unis, il y a un accident automobile tous les 484 000 miles. »

    Tous les accidents en question se sont produits sur des autoroutes à accès contrôlé. Lorsque la vidéo de l'incident était disponible, l'approche du lieu de l'intervention des premiers secours aurait été visible par le conducteur pendant une moyenne de 8 secondes avant l'impact. Les données scientifiques supplémentaires disponibles pour onze des collisions indiquent qu'aucun conducteur n'a pris de mesures d'évitement entre 2 et 5 secondes avant l'impact, et les véhicules signalés avaient tous les mains sur le volant avant l'impact.

    Cependant, la plupart des conducteurs semblaient se conformer au système d'engagement du conducteur du véhicule concerné, comme en témoigne la détection des mains sur le volant et le fait que neuf des onze véhicules ne présentaient aucune alerte visuelle ni aucun carillon d'engagement du conducteur jusqu'à la dernière minute précédant la collision (quatre d'entre eux ne présentaient aucune alerte visuelle et aucun carillon pendant le dernier cycle d'utilisation du pilote automatique).

    Depuis des années, l'agence est aux prises avec Tesla, et plus particulièrement avec le fondateur de l'entreprise, Elon Musk, qui ne mâche pas ses mots. Des fonctionnaires anonymes et d'anciens régulateurs ont décrit au début de l'année, les réactions enflammées que les employés de l'agence ont reçues de Musk, et ont noté que les régulateurs ont dû apprendre à traiter avec une entreprise combative.

    Dans une lettre adressée à Musk l'automne dernier, Jennifer Homendy, présidente du National Transportation Safety Board (NTSB), une agence fédérale distincte qui enquête sur les accidents et formule des recommandations à l'intention d'autres agences telles que la NHTSA a exhorté Musk à répondre aux recommandations de sécurité qu'elle a émises pour l'Autopilot en 2017. Le NTSB a recommandé à Tesla de mettre en place des mesures de protection qui ne permettraient pas aux conducteurs d'utiliser les véhicules d'une manière incompatible avec leur conception.

    Nom : nsbB.png
Affichages : 1754
Taille : 34,1 Ko

    Une récente conversation sur Twitter entre le journaliste Ryan McCaffrey et le PDG de Tesla, Elon Musk, a révélé que Tesla envisageait de rendre les jeux Steam disponibles dans ses voitures. Steam est le plus grand logiciel de distribution numérique de jeux vidéo. Musk a mentionné que l'entreprise s'efforce actuellement d'apporter la vaste bibliothèque de jeux vidéo Steam à ses véhicules plutôt que d'ajouter des titres spécifiques individuellement.

    Steam est une plateforme de distribution de contenu en ligne, de gestion des droits et de communication développée par Valve et orientée vers les jeux vidéo, elle permet aux utilisateurs d'acheter des jeux, du contenu pour les jeux, de les mettre à jour automatiquement, de gérer la partie multijoueur des jeux et offre des outils communautaires autour des jeux utilisant Steam.

    La National Highway Traffic Safety Administration (NHTSA) veut savoir pourquoi Tesla laisse les propriétaires de ses voitures jouer au solitaire tout en conduisant. La NHTSA a publié une déclaration indiquant qu'elle examinait cette fonctionnalité. « Nous sommes conscients des préoccupations des conducteurs et nous discutons de cette fonctionnalité avec le fabricant », a déclaré la NHTSA.

    Les lois locales américaines semblent alignées contre l'idée d'avoir un jeu visiblement en marche pendant qu'une voiture est en mouvement, même si le conducteur n'est pas celui qui joue. Un tour d'horizon de 2014 de la Consumer Electronics Association a révélé que des lois sur la « restriction des écrans vidéo » étaient en vigueur dans 34 États et dans le District de Columbia.

    Bien que les lois spécifiques varient, la plupart des réglementations se concentrent sur le fonctionnement des écrans de « télévision » qui sont visibles par le conducteur lorsque la voiture est en mouvement (la loi californienne restreint plus largement l'utilisation de tout moniteur vidéo ou écran vidéo ou tout autre dispositif similaire qui affiche un signal vidéo).

    Le NTSB a examiné l'avis préalable de proposition de réglementation (ANPRM) de la National NHTSA intitulé Framework for Automated Driving System Safety. Dans son avis, la NHTSA demande des commentaires sur le développement d'un framework pour la sécurité des systèmes de conduite automatisée (ADS). ADS, tel que défini par SAE International et tel qu'utilisé dans l'ANPRM, fait référence aux niveaux 3, 4 et 5 de l'automatisation de la conduite.

    Un ADS est le matériel et le logiciel qui sont, collectivement, capables d'exécuter l'ensemble de la tâche de conduite dynamique sur une base durable, indépendamment du fait qu'il soit limité à un domaine de conception opérationnelle spécifique. Plus précisément, l'agence sollicite des commentaires sur son rôle dans la facilitation de la gestion des risques liés aux ADS par le biais de directives, de règlements ou des deux.

    La NHTSA demande également des conseils sur la manière dont elle devrait sélectionner et concevoir la structure d'un framework de sécurité et les mécanismes administratifs appropriés pour améliorer la sécurité, atténuer les risques et permettre le développement et l'introduction de technologies de sécurité innovantes. Cette recommandation figure dans la liste des recommandations de sécurité connexes jointe à cette réponse au NPRM.

    Et vous ?

    Qu’en pensez-vous ?

    Que pensez-vous des commentaires publics de Tesla sur les accidents impliquant ces véhicules ?

    Quel résultat prévoyez-vous pour cette nouvelle enquête ?

    Voir aussi :

    Les conducteurs de Tesla peuvent jouer à des jeux vidéo dans des voitures en mouvement, cette fonctionnalité soulève de nouvelles questions de sécurité liées à la distraction au volant

    Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »

    Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 063
    Points
    199 063
    Par défaut Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière
    Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière,
    selon les données de la National Highway Traffic Safety

    La National Highway Traffic Safety Administration a publié des données sur la sécurité, ou son absence, des systèmes avancés d'aide à la conduite. Depuis juin 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022. La nouvelle fournit encore plus de données sapant les affirmations de sécurité de Tesla concernant son système Autopilot.

    Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l'année écoulée environ, selon les régulateurs, bien plus que ce que l'on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.

    Les chiffres, qui ont été publiés par la National Highway Traffic Safety Administration pour la première fois mercredi, montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d'assistance à la conduite signalés depuis juillet dernier, et la majorité des décès et blessures graves, dont certaines remontent à plus d'un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA mercredi.

    Auparavant, la NHTSA avait déclaré avoir enquêté sur 42 accidents impliquant potentiellement l'assistance au conducteur, dont 35 incluaient des véhicules Tesla, dans un ensemble de données plus limité qui remontait à 2016.

    Sur les six décès répertoriés dans l'ensemble de données publié mercredi, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.

    Certains experts émettent des réserves quant à la sécurité du mode Full Self-Driving de Tesla

    Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu'ils doivent faire attention à tout moment. Les voitures peuvent maintenir la vitesse et la distance de sécurité derrière les autres voitures, rester dans leurs lignes de voie et effectuer des changements de voie sur les autoroutes. Un ensemble étendu de fonctionnalités encore en version bêta, le "Full Self-Driving", ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s'arrêter aux panneaux d'arrêt et aux feux de circulation, et de faire des virages tout en naviguant d'un point à un autre.

    Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d'autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d'enquêtes, de rappels et même d'avertissements publics dirigés contre l'entreprise.

    Le nouvel ensemble de données découle d'une ordonnance fédérale de l'été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l'assistance à la conduite afin d'évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d'assistance à la conduite, Autopilot, environ une seconde avant l'impact, selon les régulateurs.

    L'ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n'était pas utilisé au moment de l'impact.

    « Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l'administrateur de la NHTSA, Steven Cliff, lors d'un appel aux médias concernant l'ensemble complet de données des fabricants.

    Tesla a déclaré qu'Autopilot est plus sûr que la conduite normale lorsque les données d'accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à «*réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».

    Les données opposant la conduite normale au pilote automatique ne sont pas directement comparables, car le pilote automatique fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».

    Aucun accident ni aucune blessure impliquant Full Self-Driving, selon Elon Musk

    Musk a déclaré en janvier qu'il n'y avait eu aucun accident ni aucune blessure impliquant le logiciel bêta Full Self-Driving, qui a été déployé pour un nombre plus limité de conducteurs à des fins de test. Les responsables de la NHTSA ont déclaré que leurs données ne devaient pas préciser si la conduite entièrement autonome était active au moment de l'accident.

    Nom : musk.png
Affichages : 2027
Taille : 26,0 Ko

    Les rapports présentent une nouvelle fenêtre sur des systèmes comme Autopilot, mais la base de données reste un travail en cours - avec de nombreuses inconnues même dans les données brutes et les questions laissées en suspens. Les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.

    Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.

    « Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.

    L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.

    « La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».

    Les politiques s'en mêlent

    Des entreprises telles que Tesla collectent plus de données que d'autres constructeurs automobiles, ce qui pourrait les laisser surreprésentées dans les données, selon des experts des systèmes ainsi que certains responsables qui se sont exprimés sous couvert d'anonymat pour décrire franchement les résultats. Tesla pilote également une grande partie de la technologie, dont certaines sont livrées en standard sur ses voitures, la mettant entre les mains d'utilisateurs qui se familiarisent plus rapidement avec elle et l'utilisent dans une plus grande variété de situations.

    Plusieurs législateurs ont pesé sur le rapport mercredi, certains appelant à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».

    « C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».

    Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.

    « Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.

    Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».

    Dans la lettre, les sénateurs ont spécifiquement souligné les 273 accidents « stupéfiants » signalés par Tesla.

    Nom : deux.png
Affichages : 1807
Taille : 280,6 Ko

    Une succession d'accidents

    La technologie d'assistance à la conduite a gagné en popularité, car les propriétaires ont cherché à confier davantage de tâches de conduite à des fonctionnalités automatisées, qui ne rendent pas les voitures autonomes, mais peuvent offrir un soulagement de certaines exigences physiques de la conduite. Les constructeurs automobiles tels que Subaru et Honda ont ajouté des fonctionnalités d'assistance à la conduite qui agissent comme un régulateur de vitesse plus avancé, en gardant des distances définies par rapport aux autres véhicules, en maintenant la vitesse et en suivant les lignes de voies marquées sur les autoroutes.

    Mais aucun d'entre eux ne fonctionne dans un ensemble de conditions aussi large, telles que les rues résidentielles et urbaines, que les systèmes de Tesla. La NHTSA a révélé la semaine dernière qu'Autopilot de Tesla était installé sur environ 830 000 véhicules datant de 2014.

    Autopilot a suscité plusieurs enquêtes réglementaires, notamment sur les collisions avec des véhicules d'urgence en stationnement et la tendance des voitures à s'arrêter pour des dangers imaginaires.

    Dans le cadre de son enquête sur les collisions avec des véhicules d'urgence en stationnement, la NHTSA a déclaré qu'elle examinait si Autopilot « pourrait exacerber les facteurs humains ou les risques comportementaux pour la sécurité ».

    Autopilot a été lié à des décès dans des accidents à Williston et Delray Beach, en Floride, ainsi que dans le comté de Los Angeles et à Mountain View, en Californie. Les fonctions d'assistance au conducteur ont attiré l'attention de la NHTSA, qui réglemente les véhicules à moteur, et du National Bureau de la sécurité des transports, un organisme indépendant chargé d'enquêter sur les incidents de sécurité.

    L'année dernière, les régulateurs fédéraux ont ordonné aux constructeurs automobiles, dont Tesla, de soumettre des rapports d'accident dans la journée suivant l'apprentissage de tout incident impliquant une assistance à la conduite ayant entraîné un décès ou une hospitalisation en raison d'une blessure ou impliquant une personne heurtée. Les entreprises sont également tenues de signaler les accidents impliquant la technologie qui comprenait le déploiement d'un coussin gonflable ou les voitures qui ont dû être remorquées.

    L'agence a déclaré qu'elle recueillait les données en raison des « risques uniques » de la technologie émergente, afin de déterminer si les fabricants s'assurent que leur équipement est « exempt de défauts qui présentent un risque déraisonnable pour la sécurité des véhicules à moteur ».

    Les constructeurs automobiles et les quincailliers ont signalé 46 blessés dans les accidents, dont cinq blessés graves. Mais le taux total de blessures pourrait être plus élevé – 294 des accidents ont eu un nombre « inconnu » de blessures.

    Un décès supplémentaire a été signalé, mais les régulateurs ont noté qu'il n'était pas clair si la technologie d'assistance à la conduite était utilisée.

    Honda a signalé 90 accidents au cours de la même période impliquant des systèmes avancés d'assistance à la conduite, et Subaru en a signalé 10.

    Dans un communiqué, le porte-parole de Honda, Chris Martin, a appelé à la prudence lors de la comparaison des données des rapports d'accident des entreprises, notant que les entreprises ont différentes façons de collecter des informations. Les rapports de Honda « sont basés sur des déclarations de clients non vérifiées concernant l'état des systèmes ADAS au moment d'un accident signalé », a-t-il déclaré.

    Certains systèmes semblent se désactiver dans les moments précédant un crash, permettant potentiellement aux entreprises de dire qu'ils n'étaient pas actifs au moment de l'incident. La NHTSA enquête déjà sur 16 incidents impliquant Autopilot où des véhicules Tesla ont percuté des véhicules d'urgence en stationnement. En moyenne, dans ces incidents, la NHTSA a déclaré*: « Autopilot a interrompu le contrôle du véhicule moins d'une seconde avant le premier impact ».

    Les régulateurs ont également publié des données sur les accidents signalés par les systèmes de conduite automatisés, communément appelés voitures autonomes. Ces voitures sont beaucoup moins courantes sur les routes, chargées d'équipements sophistiqués et non disponibles dans le commerce. Au total, 130 accidents ont été signalés, dont 62 de Waymo, une société sœur de Google appartenant à Alphabet (maison-mère de Google).

    Le porte-parole de Waymo, Nick Smith, a déclaré dans un communiqué que la société voyait l'intérêt de collecter les informations et a déclaré que « toute exigence de déclaration devrait être harmonisée dans toutes les juridictions américaines afin de limiter la confusion et de permettre potentiellement des comparaisons plus significatives, et les efforts de la NHTSA sont une étape vers la réalisation de cet objectif ».

    Le rapport sur les systèmes de conduite automatisée ne fait état d'aucun décès et d'un blessé grave. Il y a également eu un rapport d'accident de conduite automatisée impliquant Tesla, qui a testé des véhicules autonomes dans des capacités limitées, bien que les circonstances de l'incident ne soient pas immédiatement claires.

    Dans les accidents où l'assistance avancée à la conduite a joué un rôle et où de plus amples informations sur la collision étaient connues, les véhicules sont le plus souvent entrés en collision avec des objets fixes ou d'autres voitures. Parmi les autres, 20 ont percuté un poteau ou un arbre, 10 animaux ont été percutés, deux ont percuté des véhicules d'urgence, trois piétons ont été percutés et au moins un véhicule a percuté un cycliste.

    Lorsque les véhicules ont signalé des dommages, c'était le plus souvent à l'avant de la voiture, ce qui a été le cas dans 124 incidents. Les dommages étaient plus souvent concentrés sur l'avant gauche, ou côté conducteur, de la voiture, plutôt que sur le côté passager.

    Les incidents ont été fortement concentrés en Californie et au Texas, les deux États les plus peuplés ainsi que les endroits américains où Tesla a élu domicile. Près d'un tiers des accidents impliquant l'assistance au conducteur, 125, se sont produits en Californie. Trente-trois ont eu lieu au Texas.

    Source : NHTSA

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi :

    Tesla licencie un employé qui a publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving et lui coupe également l'accès à la version bêta du FSD
    Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis, les accidents ont fait 10 morts depuis 2016
    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot" après la mort de trois personnes dans un accident impliquant un model S
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  14. #14
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 984
    Points
    36 984
    Par défaut Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite
    Tesla signale deux nouveaux accidents mortels impliquant des systèmes d'aide à la conduite,
    sur les 18 accidents mortels signalés depuis juillet 2021, presque tous impliquaient des véhicules Tesla

    Tesla a déclaré aux autorités américaines de réglementation de la sécurité automobile qu'elle avait reçu des rapports faisant état de deux nouveaux accidents mortels liés à des systèmes avancés d'aide à la conduite dans ses voitures Tesla Model 3, selon des données publiées mardi par le gouvernement.

    La National Highway Traffic Safety Administration (NHTSA) a commencé en juin à publier les données fournies par les constructeurs automobiles sur les rapports d'accidents liés à des systèmes d'aide à la conduite comme le système Autopilot de Tesla. Elle a publié un décret en juin 2021 exigeant des constructeurs automobiles et des entreprises technologiques qu'ils signalent immédiatement tous les accidents impliquant des systèmes avancés d'aide à la conduite (ADAS) et des véhicules équipés de systèmes de conduite automatisée testés sur la voie publique.

    Nom : teslaB.png
Affichages : 1993
Taille : 206,8 Ko

    Le régulateur de la sécurité a déclaré mardi qu'il utilise les données soumises par les constructeurs automobiles comme suite à son ordonnance de 2021 dans le cadre de ses enquêtes. Sur les 18 accidents mortels signalés depuis juillet 2021 en rapport avec les systèmes d'aide à la conduite, presque tous impliquaient des véhicules Tesla.

    « La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».

    Dans un cadre plus global, Tesla est à l'origine de 273 des 367 accidents de ce type signalés par 12 constructeurs automobiles à la NHTSA entre le 20 juillet 2021 et le 15 mai de cette année. Sur l'ensemble des accidents signalés, des blessures graves ou des décès sont survenus dans 11 des 98 collisions pour lesquelles des données sur la gravité ont été recueillies. Par ailleurs, 294 autres incidents ne comportaient pas d'informations sur les dommages subis par les occupants du véhicule.

    Derrière Tesla se trouve Honda Motor avec 90 accidents signalés, tandis que Subaru a indiqué 10 collisions. Toutes les autres entreprises, y compris General Motors, Ford Motor et Toyota Motor ont mentionné cinq collisions ou moins.

    Ces chiffres ont été également inclus dans la première publication des données recueillies sur les accidents impliquant des systèmes de conduite automatisée dits de niveau 2, un aperçu général de la manière dont les technologies qui automatisent une partie de la conduite dans certaines situations, mais nécessitent une surveillance constante de la part des conducteurs se sont comportées dans des situations réelles.

    L'agence a souligné que les constructeurs automobiles suivent les accidents de différentes manières et a découragé les comparaisons de performance entre les constructeurs, en partie à cause du manque de mesures complètes pour suivre l'étendue de l'utilisation de chaque système ou la manière dont les accidents sont signalés.

    Les défenseurs de la sécurité ont demandé aux régulateurs et aux législateurs de fixer des règles plus fermes pour les voitures dites à conduite autonome et les technologies telles que la fonction d'assistance au conducteur Autopilot de Tesla, qui gagnent en popularité.

    Comme dit précédemment, les chiffres ont été inclus dans la troisième publication des données collectées sur les accidents impliquant des systèmes de conduite automatisée dits de niveau 2, recueillies en vertu d'un décret datant de juin 2021 exigeant que les constructeurs automobiles et les entreprises technologiques signalent les incidents.

    Les partisans des voitures à conduite autonome et des systèmes d'aide à la conduite soulignent la possibilité de réduire les millions d'accidents qui se produisent chaque année et de freiner les décès sur les routes, qui ont récemment connu un pic et alimenté les inquiétudes des défenseurs de la sécurité et des décideurs politiques. Seulement aux États-Unis, plus de 9 millions de véhicules de tous types ont été impliqués dans des accidents signalés par la police en 2020, selon la NHTSA.

    « Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules se comportent dans des situations réelles », a déclaré Steve Cliff, administrateur de la NHTSA, aux journalistes avant la publication des données.

    Dans le même temps, la NHTSA a déclaré que les chiffres ne devaient pas être utilisés pour tirer des conclusions en matière de sécurité. Les données manquent d'informations contextuelles nécessaires pour établir un taux d'incidents, comme le nombre de véhicules de la flotte de chaque constructeur équipé de systèmes d'aide à la conduite, la fréquence d'utilisation de ces systèmes par les conducteurs ou le nombre de kilomètres parcourus.

    L'Alliance for Automotive Innovation, la principale association professionnelle du secteur, a souligné la prudence de la NHTSA, affirmant qu'il ne fallait pas tirer de conclusions générales sur la sécurité de ces systèmes à partir de ces nouvelles informations. « Ce sont des données importantes, mais ce n'est qu'une petite partie de l'image globale », a déclaré John Bozzella, directeur général du groupe, dans un communiqué. « Il y a encore du travail à faire ».

    Ces nouvelles données interviennent peu après que l'agence a intensifié son enquête pour déterminer si le système Autopilot de Tesla est défectueux. Elle a ouvert l'enquête sur un éventuel défaut de la fonction d'aide à la conduite partiellement automatisée du constructeur de voitures électriques en août 2021, lorsqu'elle a commencé à examiner comment le système gère les scènes d'accident à la suite d'une douzaine de collisions avec des véhicules de premiers secours et d'autres véhicules.

    Malgré ses limites, la NHTSA a déclaré que les données l'aideront à mieux comprendre les performances des systèmes sur le terrain, les risques potentiels pour les piétons et autres usagers vulnérables de la route, les efforts d'élaboration de règles et les mesures d'application. « Cela aidera nos enquêteurs à identifier rapidement les tendances potentielles en matière de défauts qui pourraient émerger, dont certaines mériteront une exploration plus approfondie », a déclaré Cliff.


    L'année dernière, Tesla a publié une mise à jour qui facilitait le démarrage de ses véhicules après leur déverrouillage à l'aide de leur carte NFC. Une fonctionnalité anodine à première vue, mais qui s'est avérée être une véritable faille de sécurité majeure. Une vidéo publiée en juin montre comment un cybercriminel habile pourrait espérer s'introduire dans le système de voiture Tesla et la voler en un rien de temps.

    En exploitant une faille supposément introduite par une mise à jour publiée par Tesla l'année dernière. Martin Herfurt, chercheur autrichien en cybersécurité, est parvenu à ouvrir et à prendre le contrôle d'une Tesla en seulement 130 secondes. La fonctionnalité en cause permet d'allumer une Tesla en ouvrant simplement la porte de la voiture à l'aide d'une carte-clé de type NFC.

    Comme il l'explique dans la vidéo qui accompagne sa découverte, Herfurt pense que cette faille a été créée par Tesla elle-même. Et pour comprendre ce qu'il dit, il faut comprendre comment s'ouvre une Tesla. La carte-clé de type NFC (near-field communication) est l'une des trois possibilités de déverrouiller une Tesla, les deux autres étant le porte-clés et l'application téléphonique. Si l'application est la solution plébiscitée par la marque, elle continue d'apporter de nouvelles fonctionnalités à l'alternative de la carte NFC. Tesla explique que cette dernière a l'avantage d'être unique à chaque voiture et un gage de sécurité.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de ses nouveaux accidents mortels impliquant des véhicules Tesla ?

    Voir aussi :

    Elon Musk reste confiant quant au projet de Tesla de mettre en service un million de robotaxis d'ici la fin de l'année, malgré la crise du coronavirus

    Une faille dans les voitures Tesla permet aux voleurs d'avoir leur propre clé et de s'emparer de la voiture en seulement 130 secondes, l'exploit tire parti du lecteur de carte NFC des voitures Tesla
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 523
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 523
    Points : 199 063
    Points
    199 063
    Par défaut 17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla
    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l’innovation au mépris de la sécurité ?
    Les statistiques de la NHTSA inquiètent

    Le système d’assistance à la conduite de Tesla, connu sous le nom d'Autopilot, a été impliqué dans beaucoup plus d’accidents qu’on ne le pensait auparavant, selon une analyse d'un site dédié. Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie “Full Self Driving” (littéralement "conduite entièrement autonome") qui est encore en bêta.

    Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). En juin 2022, lorsque l'agence a fait un décompte partiel, elle a noté que le logiciel de Tesla était impliqué dans 273 accidents en 2021. Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2. Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.

    Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels, dont 11 depuis mai dernier, et cinq blessés graves.

    Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».

    Selon le site, le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.

    Nom : tesla.png
Affichages : 7204
Taille : 9,6 Ko

    Elon Musk milite pour l'utilisation d'Aupilot et Full Self-Driving

    Le PDG de Tesla, Elon Musk, a déclaré que les voitures fonctionnant en mode Autopilot de Tesla sont plus sûres que celles pilotées uniquement par des conducteurs humains, citant les taux d'accidents lorsque les modes de conduite sont comparés. Il a poussé le constructeur automobile à développer et à déployer des fonctionnalités programmées pour manœuvrer sur les routes (l'outil est entraîné à « prendre des décisions » sur des scénarios comme des autobus scolaires arrêtés, des camions de pompiers, des panneaux d'arrêt, des piétons, etc.), arguant que la technologie inaugurera un avenir plus sûr et pratiquement sans accident. Bien qu'il soit impossible de dire combien d'accidents ont pu être évités, les données montrent des failles évidentes dans la technologie testée en temps réel sur les autoroutes américaines.

    La NHTSA a déclaré qu'un rapport d'accident impliquant une assistance à la conduite n'impliquait pas en soi que la technologie en était la cause. « La NHTSA mène une enquête active sur Autopilot de Tesla, y compris Full Self-Driving », a déclaré la porte-parole Veronica Morales, notant que l'agence ne commente pas les enquêtes ouvertes. « La NHTSA rappelle au public que tous les systèmes avancés d'aide à la conduite exigent que le conducteur humain soit en contrôle et pleinement engagé dans la tâche de conduite à tout moment. En conséquence, toutes les lois des États tiennent le conducteur humain responsable du fonctionnement de ses véhicules.*»

    Nom : accident.png
Affichages : 3609
Taille : 1,13 Mo
    Le personnel d'urgence travaille sur les lieux où un SUV électrique Tesla s'est écrasé contre une barrière sur l'autoroute américaine 101 à Mountain View, en Californie, le 23 mars 2018. L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.

    Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

    « Au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens », a déclaré Musk l'année dernière. « Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les gens qui meurent ou se blessent occasionnellement, ils le savent certainement – ou leur état le sait ».

    Le nombre total d'accidents impliquant la technologie est infime par rapport à tous les accidents de la route*; la NHTSA estime que plus de 40 000 personnes sont mortes dans des accidents de voiture l'an dernier.

    Depuis l'introduction des exigences de déclaration, la grande majorité des 807 accidents liés à l'automatisation ont impliqué Tesla, selon les données. Tesla (qui a expérimenté l'automatisation de manière plus agressive que les autres constructeurs automobiles) est également liée à presque tous les décès.

    Subaru se classe deuxième avec 23 accidents signalés depuis 2019. L'énorme gouffre reflète probablement un déploiement et une utilisation plus larges de l'automatisation dans la flotte de véhicules de Tesla, ainsi que le plus large éventail de circonstances dans lesquelles les conducteurs de Tesla sont encouragés à utiliser Autopilot.

    De plus, les données ne se prêtent pas facilement à des comparaisons entre différents constructeurs, car elles n'incluent pas d'informations telles que le nombre de kilomètres parcourus par les différents systèmes d'assistance à la conduite ou l'étendue de leur déploiement dans les flottes des constructeurs automobiles.

    Pourtant, les informations donnent aux régulateurs un aperçu plus complet qu'auparavant. Avant, les régulateurs s'appuyaient sur une collecte fragmentaire de données provenant des médias, des notifications des fabricants et d'autres sources sporadiques pour en savoir plus sur les incidents impliquant une assistance avancée à la conduite.

    « Cela a révélé que plus d'accidents se produisent que la NHTSA ne le savait auparavant », a déclaré Phil Koopman, professeur d'ingénierie à l'Université Carnegie Mellon qui se concentre sur la sécurité des véhicules autonomes. Il a noté que les rapports peuvent omettre plus d'accidents mineurs, y compris les cintreuses d'ailes.

    L'ensemble de données n'inclut pas toutes les informations qu'il serait utile de connaître, mais cela pourrait être une première indication de l'accent mis sur la collecte de plus d'informations et leur utilisation pour améliorer les technologies et les réglementations de sécurité, a déclaré Bryant Walker Smith, professeur de droit à l'Université de Caroline du Sud qui étudie les technologies de transport émergentes.

    « La promesse de ceux-ci, le potentiel de ceux-ci est en fin de compte de rendre la conduite plus sûre », a-t-il déclaré à propos des technologies d'assistance à la conduite. « C'est une question ouverte de savoir si ces systèmes dans leur ensemble ou des systèmes individuels ont accompli cela ».

    Une augmentation « troublante » des accidents de Tesla

    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

    « Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

    Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

    Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.

    Autopilot, que Tesla a introduit en 2014, est une suite de fonctionnalités qui permettent à la voiture de se manœuvrer d'une bretelle d'accès à une bretelle de sortie, en maintenant la vitesse et la distance derrière les autres véhicules et en suivant les lignes de voie. Tesla le propose en standard sur ses véhicules, dont plus de 800 000 sont équipés d'un Autopilot sur les routes américaines, bien que les itérations avancées aient un coût.

    Full Self-Driving, quant à lui, est une fonctionnalité expérimentale que les clients doivent acheter. Elle permet aux Tesla de manœuvrer d'un point A à B en suivant des instructions détaillées le long d'un itinéraire, en s'arrêtant aux panneaux d'arrêt et aux feux de circulation, en effectuant des virages et des changements de voie, et en répondant aux dangers en cours de route. Avec l'un ou l'autre système, Tesla dit que les conducteurs doivent surveiller la route et intervenir si nécessaire.

    Ces outils peuvent adopter des comportements curieux. Par exemple, en avril, Tesla a publié une mise à jour de son Full Self-Driving qui s'est accompagnée de nouveaux algorithmes qui déterminent le comportement de la voiture vis-à-vis des piétons. Une vidéo publiée sur Twitter en mai montre que même si le système Tesla peut détecter les piétons qui traversent la route, une Tesla peut choisir de ne pas s’arrêter ou ralentir comme elle le faisait avant.

    En février, la NHTSA a demandé à Tesla de rappeler près de 363 000 véhicules équipés du logiciel.

    L'agence avait quatre plaintes principales, notamment que « le système FSD Beta peut permettre au véhicule d'agir de manière dangereuse autour des intersections, comme traverser directement une intersection alors qu'il se trouve dans une voie réservée aux virages, entrer dans une intersection où est placé un panneau d'arrêt sans que le véhicule ne s'arrête ou s'engager dans une intersection sans la prudence nécessaire lorsque le feu de signalisation est jaune fixe ». Le feu jaune fixe annonçant un feu rouge, impose l'arrêt, sauf si cet arrêt comporte des risques, griller un feu orange ou un passer au rouge peut donc être tolérer dans une certaine mesure.

    Sources : Tesla Deaths, NHTSA

    Et vous ?

    Que pensez-vous de l'Autopilot de Tesla et de ses performances ? Du Full Self-Driving ?
    Avez-vous déjà conduit ou été passager d’un véhicule équipé d’un système d’assistance à la conduite ou de conduite autonome ?
    Quels sont les risques et les bénéfices de ces technologies pour la sécurité routière et l’environnement ?
    Faites-vous confiance aux constructeurs automobiles et aux autorités pour réguler et contrôler ces systèmes ?
    Seriez-vous prêt à acheter ou à utiliser un véhicule doté de ces fonctionnalités ?

    Voir aussi :

    Les données de désengagement du Full Self-Driving de Tesla mises à disposition par un ensemble de propriétaires semblent si affreuses qu'Elon Musk est mis au défi de prouver le contraire
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #16
    Modérateur
    Avatar de grunk
    Homme Profil pro
    Lead dév - Architecte
    Inscrit en
    Août 2003
    Messages
    6 691
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Lead dév - Architecte
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2003
    Messages : 6 691
    Points : 20 227
    Points
    20 227
    Par défaut
    L'ingénieur Apple décédé lorsque son Tesla Model X s'est écrasé contre la barrière en béton s'est plaint avant sa mort que le système Autopilot du SUV fonctionnait mal dans la zone où l'accident s'est produit.
    Et a quel moment tu continues à faire une confiance aveugle à quelque chose qui te semble défaillant

    J'ai que l'autopilote de base sur ma Tesla et franchement c'est a peine mieux que ce que font les autres avec des systèmes plus traditionnel. Le maintien dans les lignes est le meilleurs que j'ai pu essayer. Le régulateur adaptatif est, comme tous les autres ,inconfortable dès qu'il y'a du traffic. Et comme tous les autres systèmes on se prend régulièrement des ralentissement, voir des freinage intempestif car la voiture n'a pas été capable de comprendre qu'il n'y avait pas de danger.
    Les 2 cas les plus typiques :
    Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
    Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

    Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.

    J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  17. #17
    Membre actif
    Profil pro
    Chef de projet
    Inscrit en
    Octobre 2006
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Chef de projet

    Informations forums :
    Inscription : Octobre 2006
    Messages : 55
    Points : 222
    Points
    222
    Par défaut
    Les chiffres sont toujours très compliqués à interpréter.
    Par exemple
    Passer de 100 morts à 200 morts c'est 100% d'augmentation.
    Maintenant passer de 100 à 200 morts parce qu'en parallèle on est passés de xx Tesla à xx Tesla dans le monde fait que le nombre de morts par voiture Tesla roulant diminue
    Ventes de Tesla
    2020 : 499 550
    2021 : 936 172
    2022 : 1 313 851

    On reste dans tous les cas sur pour moi une "aide" à la conduite, on devrait juste IMPOSER à Tesla de changer les dénominations (qui trompe les "naifs")
    AutoPilot & Full Self-Driving

    je sais pas un
    Pilot Assistance & Semi Self Driving

  18. #18
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 764
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 764
    Points : 7 187
    Points
    7 187
    Par défaut
    Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

    Peut-être qu'il serait temps de remettre l'usage de la technologie à plat lorsque les inconvénients sont des morts d'êtres humains évitables par un être humain.


    Mettre une technologie en Beta à la disponibilité de tous, c'est criminel lorsqu'il s'agit de sécurité routière. Et de tous les accidents évités par l'Autopilot et le Full Self Driving, combien auraient pu être évités par un être humain ? Pour moi, la technologie est loin d'être au point et nécessite plus de tests hors du grand public pour envisager les cas de figure les plus courants afin de sécuriser au maximum et surtout bien mieux que ce qui est vendu actuellement.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  19. #19
    Membre éprouvé Avatar de AndMax
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2017
    Messages
    232
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2017
    Messages : 232
    Points : 1 020
    Points
    1 020
    Par défaut
    Citation Envoyé par grunk Voir le message
    J'avais le même genre de pb sur mes autres véhicule , c'est donc pas lié directement a Tesla. La différence étant que certains possesseur de Tesla font une confiance aveugle au système qu'on leur propose et "oublie" de conduire
    C'est vrai que tous les systèmes ont leurs limites, mais crois que Tesla a un gros problème que les autres n'ont pas: le vocabulaire, ou au moins les noms de leurs produits qui sont extrêmement prétentieux. "Autopilot" et "Full self driving" + un patron qui ment dans ses conférences en disant depuis 2019 que ses voitures sont 100% autonomes, capables de traverser les USA sans intervention humaine, et que le "robotaxi" est dispo. Aucune autre marque ne fait ce genre de déclarations, et le fait d'ajouter "beta" dans le nom, de toute évidence, ça ne suffit pas pour que certains conducteurs restent vigilants.

  20. #20
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 280
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 280
    Points : 4 139
    Points
    4 139
    Par défaut
    Citation Envoyé par grunk Voir le message
    Les 2 cas les plus typiques :
    Sur autoroute , dépassement d'un véhicule, si le dépassement n'est pas suffisamment anticipé (plus de 2 lignes continue) il y'a de forte chance qu'elle décide de ralentir malgré la présence du clignotant
    Toujours sur autoroute , si vous vous faites doubler et que l'utilisateur se rabat un peu proche c'est pas rare de prendre un coup de frein alors que c'est inutile puisque la voiture s'éloigne.

    Dans les deux cas ca créer des comportement imprévisible pour les autre usager et donc du danger.
    Ca sera toujours le cas à mon avis tant que les véhicules ne sont pas capables de communiqués entre eux. Chaque constructeur automobile fait les choses dans son coin et c'est idiot.
    On cherche à reproduire une conduite humaine alors qu'il faudrait mettre en place une conduite interconnectée entre les véhicules.
    Et pour les vieux véhicules, mettre un boîtier qui permet de signaler aux véhicules autonomes leurs position et gabarit permettrait de faire de gros progrès.

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/03/2021, 16h02
  2. Réponses: 6
    Dernier message: 08/06/2020, 20h06
  3. Réponses: 41
    Dernier message: 14/01/2019, 13h07
  4. Réponses: 3
    Dernier message: 23/06/2006, 10h03
  5. Réponses: 3
    Dernier message: 01/02/2006, 23h17

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo