IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 1 548
    Points : 35 894
    Points
    35 894
    Par défaut Tesla doit désormais signaler les accidents de son Autopilot au gouvernement ou s'exposer à des amendes
    Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis,
    Les accidents ont fait 10 morts depuis 2016

    Les voitures électriques et la conduite autonome sont les plus grandes transformations que connaît l'industrie automobile. Il est difficile de contester que Tesla est en tête sur ces deux plans, mais c'est le dernier qui a placé le constructeur automobile sous la loupe des autorités américaines de réglementation de la sécurité. La National Highway Traffic Safety Administration (NHTSA) a déclaré jeudi qu'elle avait ouvert 30 enquêtes sur des accidents de Tesla impliquant 10 décès depuis 2016 où des systèmes avancés d'aide à la conduite étaient soupçonnés d'avoir été utilisés. L’agence a donné des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués, selon des feuilles de calcul vues par Reuters. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. Maintenant, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Nom : t01.jpg
Affichages : 1542
Taille : 30,3 Ko

    Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

    Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

    La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

    Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

    Nom : t02.jpg
Affichages : 1561
Taille : 63,4 Ko
    L’accident du 17 avril qui a tué deux hommes au Texas

    Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

    La semaine dernière, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

    Aucune loi aux États-Unis ne rend illégales les voitures entièrement autonomes

    En ce qui concerne les lois régissant les véhicules autonomes, les États-Unis sont constitués d'un ensemble de législations qui varient d'un État à l'autre, mais actuellement, il n'existe aucun endroit où il est strictement illégal de posséder et d'utiliser un véhicule totalement autonome. Par ailleurs, un premier projet de loi américain sur les voitures autonomes, qui assouplirait de nombreux règlements fédéraux concernant les véhicules autonomes, avait reçu un appui du Congrès en décembre 2018.

    S'il était adopté, le projet de loi permettrait aux fabricants de véhicules tels que Tesla et General Motors de développer et de commercialiser ces véhicules sans action réglementaire spécifique. En même temps, le projet de loi collecterait des informations sur les accidents au niveau fédéral pour les systèmes de conduite autonome de niveau 2 tels que le pilote automatique Tesla et la Super Cruise de GM.

    Certains États ont toutefois adopté des lois les réglementant ou les autorisant, mais aucun État ne les a carrément interdites. À ce jour, vingt-neuf États, dont l'Alabama, l'Arkansas, la Californie, le Colorado, le Connecticut et la Floride ont adopté une législation relative aux véhicules autonomes.

    Dans une lettre adressée le 1er février au ministère américain des Transports, le président du NTSB, Robert Sumwalt, a exhorté le ministère à promulguer des règlements régissant les systèmes d'aide à la conduite tels qu'Autopilot, ainsi que les essais de véhicules autonomes. La NHTSA s'est principalement appuyée sur des directives volontaires pour les véhicules, adoptant une approche non interventionniste afin de ne pas entraver le développement de nouvelles technologies de sécurité.

    Sumwalt a déclaré que Tesla utilise les personnes qui ont acheté les voitures pour tester son logiciel de "conduite entièrement autonome" sur les routes publiques avec une surveillance ou des exigences de rapport limitées. « Étant donné que la NHTSA n'a mis en place aucune exigence, les fabricants peuvent faire rouler et tester des véhicules pratiquement n'importe où, même si l'emplacement dépasse les limites du système de contrôle du véhicule autonome (AV) », a écrit Sumwalt.

    Il a ajouté : « Bien que Tesla inclue un avertissement selon lequel "les fonctionnalités actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome", l'approche non interventionniste de la NHTSA en matière de surveillance des tests des AV pose un risque potentiel pour les automobilistes et les autres usagers de la route ». Cependant, ces derniers mois, la NHTSA, qui a le pouvoir de réglementer les systèmes de conduite automatisée et de demander des rappels si nécessaire, semble avoir développé un intérêt renouvelé pour ces systèmes.

    Malgré les milliards de dollars dépensés jusqu'à présent, les constructeurs automobiles n'ont pas encore produit de véhicule complètement autonome. Le système de Tesla a atteint le niveau 2 d'autonomie, selon l'échelle de la Society of Automotive Engineers, ce qui est encore loin de l'autonomie complète et nécessite la présence d'une personne sur le siège du conducteur qui peut prendre le contrôle si nécessaire.

    La feuille de calcul de la NHTSA indique également que l’agence a ouvert six autres enquêtes sur six autres accidents impliquant des systèmes d'aide à la conduite, dont deux impliquant des véhicules Cadillac dans lesquels aucun blessé n'a été signalé. Les quatre autres comprennent deux accidents impliquant un Lexus RX450H 2012 et un Navya Arma 2017 dans lesquels aucun blessé n'a été signalé.

    Les deux autres impliquent des véhicules Volvo XC90 de 2017, dont un véhicule d'essai à conduite autonome d'Uber Technologies qui a heurté et tué une femme en Arizona en 2018. Uber a pris une série de décisions de développement qui ont contribué à la cause de l'accident et a désactivé les systèmes de freinage automatique d'urgence dans le véhicule Volvo XC90, ont constaté les enquêteurs de sécurité.

    Source : NHTSA

    Et vous ?

    Quel commentaire faites-vous du nombre d’accidents impliquant Autopilot de Tesla depuis cinq ans ?
    Que pensez-vous de la progression de la conduite autonome ?

    Voir aussi :

    Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flammes
    Vous devez désormais être éveillé et assis dans le siège du conducteur pour conduire une Tesla, la caméra de l'habitacle veillera à cela lorsque Autopilot est activé
    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
    Une conductrice de secours d'Uber inculpée dans un accident de conduite autonome de 2018 qui a tué une femme, pour avoir été distraite dans les moments précédant l'accident mortel
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre régulier Avatar de Picarunix
    Femme Profil pro
    Lycéen
    Inscrit en
    octobre 2015
    Messages
    31
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Lycéen

    Informations forums :
    Inscription : octobre 2015
    Messages : 31
    Points : 76
    Points
    76
    Par défaut La conduite autonome n'est pas pour demain.
    Les accidents en Tesla sont un mélange d'insouciance du conducteur qui devient un occupant passif du véhicule, et de faits impromptus.
    La trop grande confiance accordée à ce système par son fabricant et par ses utilisateurs ...

    Par contre, je crois que lorsque tous les véhicules autonomes seront inter-reliés lors de leurs déplacements, le nombre d'accidents sera très réduit.
    Il va falloir du temps avant que ça n'arrive et d'autre part, l'évènement l'impromptu lui, restera à charge du conducteur attentif.

  3. #3
    Membre expert
    Inscrit en
    juin 2009
    Messages
    1 071
    Détails du profil
    Informations forums :
    Inscription : juin 2009
    Messages : 1 071
    Points : 3 316
    Points
    3 316
    Par défaut
    Citation Envoyé par Picarunix Voir le message
    Par contre, je crois que lorsque tous les véhicules autonomes seront inter-reliés lors de leurs déplacements, le nombre d'accidents sera très réduit.
    Par définition, si un véhicule a besoin d'être relié à un autre, ils ne sont PAS autonome.

    Il est absolument indispensable que les voitures autonomes soient le moins connectés possible, et dans l'absolu, pas du tout connectés.
    Il faut absolument que les voitures puissent comprendre la situation par elle même, avec leurs capteurs embarqués uniquement. Autrement, le spoofing rendra tout très manipulable.

  4. #4
    Membre chevronné

    Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    février 2004
    Messages
    718
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information

    Informations forums :
    Inscription : février 2004
    Messages : 718
    Points : 1 831
    Points
    1 831
    Par défaut
    10 morts et 30 accidents en enquête en 10 ans? Je trouve ca pour ma part que ce sont de bien meilleurs statistiques que celles avec les conducteurs humains.

  5. #5
    Membre expert Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    mars 2005
    Messages
    1 042
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : mars 2005
    Messages : 1 042
    Points : 3 886
    Points
    3 886
    Par défaut
    Citation Envoyé par blbird Voir le message
    10 morts et 30 accidents en enquête en 10 ans? Je trouve ca pour ma part que ce sont de bien meilleurs statistiques que celles avec les conducteurs humains.
    2016, selon l'article, donc 5 ans et pas 10 ans.

    De plus, des Tesla tu n'en a sans doute pas tant que ça comparé aux millions de véhicules dans le monde. Et là on parle des accidents qui ont été liés à la conduite assistée, pas ceux provoqués par les conducteurs directement, qui viennent sans doute s'ajouter aux statistiques de base (pas d'infos là dessus).

    Du coup, pour un système que Tesla vendait comme "autonome" il n'y a pas si longtemps que ça, ça la fout mal - note que maintenant ils appellent ça conduite "assistée", ce qui est déjà plus honnête.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  6. #6
    Expert éminent sénior Avatar de Uther
    Homme Profil pro
    Inscrit en
    avril 2002
    Messages
    4 295
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Pyrénées Orientales (Languedoc Roussillon)

    Informations forums :
    Inscription : avril 2002
    Messages : 4 295
    Points : 12 912
    Points
    12 912
    Par défaut
    De toute façon trente accident en valeur absolue ça ne veut rien dire, ça peut être énorme comme rien du tout en fonction des détails. Sans des chiffres plus précis qui permettent de rapprocher ces résultats à ceux des voitures sans assistance, on ne peut pas vraiment conclure quoi que ce soit.
    Encore une fois on a droit à un article sans intérêt sur une société d'Elon Musk qui relance un débat inutile et basé sur rien d'analysable. C'est vraiment une salle habitude des médias que de chercher avant tout la controverse et de ne pas creuser ce qui est important.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    6 383
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 6 383
    Points : 154 964
    Points
    154 964
    Par défaut Tesla doit désormais signaler les accidents de son Autopilot au gouvernement ou s'exposer à des amendes
    Tesla doit désormais signaler les accidents de son Autopilot au gouvernement ou s'exposer à des amendes,
    d'après une décision de l'agence fédérale chargée de la sécurité routière

    La National Highway Traffic Safety Administration (NHTSA), une agence fédérale américaine des États-Unis chargée de la sécurité routière, a franchi une étape importante dans sa mission en publiant une nouvelle règle qui lèvera le voile du secret sur la question de savoir si les fonctionnalités de conduite semi-autonome rendent réellement la conduite plus sûre.

    En vertu de la nouvelle règle de la NHTSA, les entreprises doivent signaler tous les accidents dans lesquels des fonctions d'assistance à la conduite dites « semi-autonomes » telles que l'assistance à la direction ou le maintien de voie automatique sont impliquées, y compris Autopilot de Tesla et les options qui peuvent apporter la confusion comme « Full Self-Driving Beta ». La règle s'appliquera également aux entreprises exploitant des programmes pilotes de conduite autonome comme Waymo, Zoox et Cruise. Cela permettra non seulement à l'agence gouvernementale indépendante de mieux comprendre à quel point ces systèmes sont réellement sûrs, mais lui permettra également de repérer des modèles de systèmes particulièrement dangereux.

    La nouvelle règle stipule que tout accident impliquant un système semi-autonome et « une blessure conduisant à une hospitalisation, un décès, un remorquage de véhicule, un déploiement d'airbag ou un usager de la route vulnérable comme un piéton ou un cycliste » doit être signalé à la NHTSA dans la journée suivant l'annonce de l'accident suivie par une mise à jour sur la situation 10 jours plus tard. Les entreprises doivent également signaler les accidents impliquant des blessures ou des dommages matériels sur une base mensuelle, à mettre à jour mensuellement avec de nouvelles informations. Le Washington Post a signalé que le non-respect de cette nouvelle règle entraînerait des amendes de 22 992 $ par jour, une pénalité maximale de « plus de 100 millions de dollars » et un envoi du dossier au ministère de la Justice.

    Nom : tesla.png
Affichages : 1081
Taille : 133,7 Ko

    Des rapports doivent être soumis pour tout incident à signaler, au sujet duquel une entreprise reçoit un avis, à compter de 10 jours après que l'entreprise en ait reçu l'injonction. Les rapports doivent être soumis à la NHTSA par voie électronique en utilisant un formulaire qui requiert des informations importantes concernant l'accident. La NHTSA utilisera ces informations pour identifier les accidents pour un suivi.

    La NHTSA a déclaré dans le communiqué de presse qu'elle utiliserait les données collectées pour « aider l'agence à identifier les problèmes de sécurité potentiels et les impacts résultant de l'utilisation de technologies de pointe sur les routes publiques et à accroître la transparence ».

    « L'aide à la conduite automobile de niveau 2 est une fonctionnalité de plus en plus courante sur de nombreux nouveaux véhicules et fournit des fonctions d'assistance à la conduite qui combinent des technologies, telles que l'assistance au centrage de voie et le régulateur de vitesse adaptatif, où le véhicule est capable de contrôler certains aspects de la direction et de la vitesse. Les conducteurs, cependant, doivent rester engagés et vigilants à tout moment lorsqu'ils utilisent ces systèmes, car ils ne sont pas conçus et ne sont pas en mesure d'effectuer les composants de fonctionnement critiques de la tâche de conduite. Les véhicules équipés de l'aide à la conduite automobile, capables d'effectuer l'intégralité de la tâche de conduite dans des circonstances limitées, ne sont actuellement pas vendus aux consommateurs, mais sont peu utilisés sur les routes publiques du pays pour les tests, le covoiturage et la livraison de marchandises.

    « La surveillance de la NHTSA ne se limite pas aux accidents spécifiés discutés dans l'ordonnance ou aux informations soumises dans le cadre de ses obligations de déclaration. L'examen et l'analyse de la NHTSA incluront toutes les informations et tous les incidents relatifs à tout défaut de sécurité potentiel. De plus, la NHTSA peut prendre d'autres mesures en cas d'accident individuel, notamment en envoyant une équipe d'enquête spéciale sur les accidents et en exigeant de l'entreprise qu'elle fournisse des informations supplémentaires. La NHTSA peut également ouvrir des enquêtes sur les défauts, le cas échéant ».

    Nom : autopilot.png
Affichages : 1087
Taille : 185,2 Ko

    Des accidents liés au système Autopilot de Tesla

    Le contexte s'y prête fortement. Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. En juin, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

    Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

    Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

    La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

    Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

    Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

    En juin, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

    Conclusion

    Ce changement apparemment mineur pourrait avoir un impact important sur la sécurité routière, car le public ne sait tout simplement pas à quel point ces systèmes sont bons, à quelle fréquence ils fonctionnent mal ou dans quelle mesure ils sont mal utilisés par les conducteurs. Jusqu'à présent, pratiquement toutes les données disponibles sur les fonctions de conduite informatisées, allant des diverses fonctionnalités de direction automatique, que pratiquement tous les constructeurs automobiles offrent de nos jours, au service de taxi entièrement autonome de Waymo en passant par Autopilot semi-autonome de Tesla, provenaient des entreprises elles-mêmes, qui ont un intérêt évident à faire en sorte que leur produit paraisse aussi sûr que possible. Cela n'a laissé au grand public qu'une anecdote occasionnelle (ou, dans le cas de Tesla, fréquente) sur une mauvaise utilisation ou un dysfonctionnement. Mais bientôt, le public devrait avoir des informations réelles pour déterminer si les accidents et dysfonctionnements ne sont que de simples anecdotes ou s'il s'agit de quelque chose de plus fréquent.

    Cette décision pourrait également signaler que la NHTSA se réveille de son long sommeil de complaisance.

    Source : NHTSA

    Voir aussi :

    L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
    Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    6 383
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 6 383
    Points : 154 964
    Points
    154 964
    Par défaut Autopilot : les USA enquêtent après que 11 Tesla se sont écrasées sur des véhicules d'urgence
    Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence,
    s'inquiétant de sa capacité à garder le conducteur impliqué

    Les régulateurs du département américain de la sécurité routière, la National Highway Traffic Safety Administration (NHTSA), ouvrent une enquête sur le système Autopilot de Tesla après que des voitures utilisant cette fonction se soient écrasées contre des véhicules de secours.

    La National Highway Transportation Safety Administration a annoncé l'ouverture d'une enquête et elle englobe 765 000 Teslas vendues aux États-Unis, une fraction importante de toutes les ventes de l'entreprise dans le pays. L'agence indique que l'enquête couvrira 11 accidents depuis 2018 ; les accidents ont fait 17 blessés et un mort :

    « Depuis janvier 2018, l'Office of Defects Investigation (ODI) a identifié onze accidents dans lesquels des modèles Tesla de diverses configurations ont rencontré des scènes de premiers intervenants et ont par la suite heurté un ou plusieurs véhicules impliqués dans ces scènes. Les incidents sont répertoriés à la fin de ce résumé par date, ville et état. »

    « La plupart des incidents ont eu lieu après la tombée de la nuit et les scènes d'accident rencontrées comprenaient des mesures de contrôle de la scène telles que des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Il a été confirmé que les véhicules en cause impliqués étaient en mode Autopilot ou Traffic Aware Cruise Control pendant l'approche des accidents. »

    « Autopilot est un système avancé d'assistance à la conduite (ADAS) dans lequel le véhicule maintient sa vitesse et son centrage sur la voie lorsqu'il est engagé dans son domaine de conception opérationnelle (ODD). Avec l'ADAS actif, le conducteur est toujours responsable de la détection et de la réponse aux objets et événements (OEDR), par exemple, l'identification des obstacles sur la chaussée ou des manœuvres défavorables des véhicules voisins pendant la tâche de conduite dynamique (DDT). »

    « L'ODI a ouvert une évaluation préliminaire du système SAE de niveau 2 ADAS (pilote automatique) pour l'année modèle 2014-2021, modèles Y, X, S et 3. L'enquête évaluera les technologies et les méthodes utilisées pour surveiller, assister et appliquer le l'engagement du conducteur dans la tâche de conduite dynamique pendant le fonctionnement du pilote automatique. L'enquête évaluera en outre l'OEDR des véhicules lorsqu'ils sont engagés en mode pilote automatique, et l'ODD dans lequel le mode pilote automatique est fonctionnel. L'enquête comprendra également l'examen des circonstances contributives des accidents confirmés énumérés ci-dessous et d'autres accidents similaires. »

    Liste des incidents :
    • 07/10/2021 San Diego CA
    • 19/05/2021 Miami FL
    • 17/03/2021 Lansing MI
    • 27/02/2021 Comté de Montgomery TX
    • 26/08/2020 Charlotte NC
    • 30/07/2020 Comté de Cochise AZ
    • 22/01/2020 West Bridgewater MA
    • 29/12/2019 Cloverdale EN
    • 10/12/2019 Norwalk CT
    • 29/05/2018 Laguna Beach CA
    • 22/01/2018 Culver City CA »


    Nom : tesla.png
Affichages : 14188
Taille : 37,1 Ko

    La NHTSA signale que tous les accidents en question ont eu lieu de nuit et que des outils de signalisation avaient été mis en place par les équipes pour délimiter les zones d’interventions, comme des feux de détresse, des panneaux illuminés ou encore des cônes de signalisation. Elle précise également que les fonctionnalités comme Autopilot et Traffic Aware Cruise Control étaient activées.

    La NHTSA a précisé que l’enquête devra montrer si, oui ou non, « la technologie et les méthodes utilisées pour assister et contrôler la conduite et faire en sorte que le conducteur reste attentif » fonctionnent.

    L'enquête est un autre signe que la NHTSA adopte une position plus ferme sur la sécurité des véhicules automatisés que sous les administrations précédentes. Auparavant, l'agence était réticente à réglementer la nouvelle technologie de peur d'entraver l'adoption des systèmes potentiellement salvateurs.

    L'enquête porte sur l'ensemble de la gamme de modèles actuels de Tesla, les modèles Y, X, S et 3 des années modèles 2014 à 2021.

    Le National Transportation Safety Board, qui a également enquêté sur certains des accidents de Tesla datant de 2016, a recommandé que la NHTSA et Tesla limitent l'utilisation d'Autopilot aux zones où il peut fonctionner en toute sécurité. Le NTSB a également recommandé que la NHTSA exige que Tesla dispose d'un meilleur système pour s'assurer que les conducteurs font attention. La NHTSA n'a donné suite à aucune des recommandations. Le NTSB n'a aucun pouvoir d'exécution et ne peut que faire des recommandations à d'autres agences fédérales.

    La NHTSA s'intéresse à l'attention requise du conducteur une fois Autopilot activé

    Tesla a fait l'objet d'un examen minutieux quant à la façon dont Autopilot vérifie l'attention des conducteurs lorsque le système est activé. Dans une évaluation des systèmes avancés d'aide à la conduite (ADAS), Autopilot a reçu des notes moyennes dans le programme européen d'évaluation des nouvelles voitures. Le système a été entravé par sa relative incapacité à garder les conducteurs engagés dans la route.

    Comme beaucoup d'autres systèmes ADAS, Autopilot exige qu'un conducteur garde les mains sur le volant, bien que de tels systèmes puissent être facilement trompés en plaçant un poids sur l'un des rayons du volant. Une enquête récente de Car and Driver a révélé qu'il fallait entre 25 et 40 secondes pour que le véhicule émette un avertissement lorsque les conducteurs retirent les mains du volant, selon le modèle. Si les conducteurs ne répondaient pas, la voiture roulerait encore 30 secondes avant de commencer à freiner. À grande vitesse sur autoroute, cela pourrait entraîner le fonctionnement du système sans implication du conducteur sur 1,6 kilomètre.

    À la suite d'un accident en janvier 2018 en Californie, le National Transportation Safety Board a critiqué la façon dont Tesla tente de garder les conducteurs engagés. Lors de cet incident, qui fait également partie de l'enquête de la NHTSA, une Model S 2014 a bloqué un camion de pompiers dans la voie réservée aux véhicules à occupation multiple (VMO) de l'Interstate 405 à Culver City. Le conducteur de la Tesla avait activé Autopilot et suivait un autre véhicule dans la voie réservée aux VOM lorsque le véhicule de tête a changé de voie pour éviter le camion de pompiers garé. Autopilot n'a ni dévié ni freiné, et le conducteur, qui mangeait un bagel, n'a pas repris le contrôle du véhicule. La Tesla a heurté le camion de pompiers à 50 km/h, selon le rapport d'accident.

    Le National Transportation Safety Board a déclaré que l'inattention du conducteur était la cause probable de l'accident « en raison de l'inattention et de la dépendance excessive au système avancé d'aide à la conduite du véhicule; la conception d'Autopilot Tesla, qui a permis au conducteur de se désengager de la tâche de conduite*; et l'utilisation du système par le conducteur d'une manière incompatible avec les instructions et les avertissements du fabricant ».

    Des modifications apportées à Autopilot

    Tesla a récemment commencé à modifier le fonctionnement d'Autopilot, abandonnant le capteur radar des modèles 3 et Y au profit de caméras supplémentaires (les modèles S et X conserveront le radar dans un avenir prévisible). Comme le montrent les accidents qui font partie de l'enquête NHTSA, les données radar ne garantissent pas que les systèmes ADAS détecteront correctement les obstacles sur la chaussée, bien que généralement, des capteurs supplémentaires puissent aider les systèmes à obtenir une image complète de la scène. Étant donné que les données radar et lidar sont essentiellement une série de mesures, elles aident à déterminer à quelle distance un véhicule se trouve d'un objet. Bien que les systèmes ADAS puissent obtenir les mêmes informations à partir d'images de caméra, ils nécessitent des calculs plus compliqués qu'avec un radar ou un lidar. Il n'est pas clair si l'enquête de la NHTSA inclut les nouveaux modèles de Tesla à caméra uniquement.

    On ne sait pas non plus si l'enquête affectera la fonction dite d'autoconduite complète de Tesla, dont des versions bêta ont été publiées pour un groupe de conducteurs. Les vidéos du système en action montrent qu'il s'agit d'un travail en cours et qu'il nécessite l'attention du conducteur à tout moment.

    Source : NHTSA
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    octobre 2017
    Messages
    1 053
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : octobre 2017
    Messages : 1 053
    Points : 3 656
    Points
    3 656
    Par défaut
    Il y a des rapides dans l'administration américaine... Il faut attendre 11 crashs inexpliqués avant de lancer des investigations?

    Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!

  10. #10
    Membre à l'essai
    Profil pro
    Inscrit en
    octobre 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : octobre 2013
    Messages : 1
    Points : 13
    Points
    13
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Les fonctionnaires sont vraiment tous les mêmes, quelque soit le pays!
    En voilà un de commentaire intelligent et pertinent...

  11. #11
    ALT
    ALT est déconnecté
    Membre chevronné
    Avatar de ALT
    Homme Profil pro
    Assistant aux utilisateurs
    Inscrit en
    octobre 2002
    Messages
    1 182
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 62
    Localisation : France, Vienne (Poitou Charente)

    Informations professionnelles :
    Activité : Assistant aux utilisateurs
    Secteur : Service public

    Informations forums :
    Inscription : octobre 2002
    Messages : 1 182
    Points : 2 115
    Points
    2 115
    Par défaut
    Citation Envoyé par Karakoa
    En voilà un de commentaire intelligent et pertinent...
    En effet.

    11 accidents avec 760 000 véhicules (une partie des véhicules [Tesla] vendus, donc en circulation), ce n'est pas énorme.

    Si l'administration devait enquêter à chaque accident... Certes, ça améliorerait la sécurité routière, mais à condition d'être réalisée avec la même rigueur que pour les accidents d'avion.
    On en est (très) loin !

    Maintenant, on peut dire aussi que c'est onze accidents de trop. J'espère que Tesla n'a pas attendu l'enquête pour corriger ces dysfonctionnements. C'est d'ailleurs son intérêt, commercialement.
    Et plus les automatismes seront poussés, plus ce sera complexe.
    On n'a donc pas fini de gloser sur le énième accident provoqué par un véhicule automatique, alors qu'il y en a moins (proportionnellement) que d'accidents provoqués par les humains.
    « Un peuple qui est prêt à sacrifier un peu de liberté contre un peu de sécurité, ne mérite ni l'une, ni l'autre, et finira par perdre les deux. »
    Attribué indistinctement à :
    Thomas Jefferson
    Benjamin Franklin
    Albert Einstein !

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/03/2021, 16h02
  2. Réponses: 6
    Dernier message: 08/06/2020, 20h06
  3. Réponses: 41
    Dernier message: 14/01/2019, 13h07
  4. Réponses: 3
    Dernier message: 23/06/2006, 10h03
  5. Réponses: 3
    Dernier message: 01/02/2006, 23h17

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo