Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Une Tesla Model 3 heurte un camion renversé en raison d'une défaillance apparente de l’« Autopilot »
    Une Tesla Model 3 heurte un camion renversé en raison d'une défaillance apparente de l’« Autopilot »,
    Le système n’ayant pas pu détecter l’obstacle qui couvrait deux voies d'autoroute

    Les capacités du système de conduite autonome de niveau 2 "Autopilot" de Tesla sont à nouveau sous les feux de la rampe. La vidéo d’un nouvel accident impliquant une Tesla Model 3 à Taiwan est devenue virale sur les médias sociaux, le conducteur du véhicule ayant déclaré que le pilote automatique était activé lors de l’accident. L'incident s'est produit sur un tronçon de route alors que la Modèle 3 s'approchait d'un camion-remorque renversé et qui couvrait deux voies d'autoroute, un obstacle suffisamment grand pour que la plupart des conducteurs puissent l'éviter étant donné une visibilité claire et le manque de trafic.

    Selon le récit de Jalopnik appuyé par des vidéos et images, l’accident s’est produit plus tôt dans la journée du lundi, « sur la route nationale 1 de Taiwan, près de la section des eaux de Zhongshan High Chiayi », où une Tesla Model 3, alors qu’elle roulait à vive allure, s'est écrasée dans le toit d'une remorque de camion renversée. Apparemment, l’accident a été causé par le fait que le système Autopilot de Tesla n'a pas détecté le grand objet blanc qui se trouvait juste devant lui en plein jour et par temps clair, d’après la vidéo de l’incident massivement partagée sur les médias sociaux. Sur la vidéo, vous pouvez voir le véhicule foncer droit dans le camion, avec seulement ce qui ressemble à une tentative solitaire de freinage juste avant l'impact.


    Pour tout conducteur humain prêtant la moindre attention, cet accident est presque impossible, à supposer que le conducteur ait eu le regard fixé sur la route et que le véhicule ait eu des freins fonctionnels. Selon les nouvelles traduites des médias taïwanais, le conducteur, un homme de 53 ans nommé Huang, a déclaré aux médias que le pilote automatique était enclenché sur sa Model 3. Mais au lieu de ralentir pour éviter de heurter le camion, la Tesla l'a percutée en perçant le toit de son compartiment de rangement de marchandises.

    « La quatrième brigade de la police routière a déclaré que le conducteur de Tesla était un homme de 53 ans nommé Huang, qui a affirmé avoir activé le système d'assistance au véhicule à l'époque. On pensait que le véhicule détecterait un obstacle et ralentirait ou s'arrêterait, mais la voiture se déplaçait toujours à une vitesse fixe, de sorte que lorsque les freins devaient être appliqués au dernier moment, il serait trop tard pour causer une catastrophe », a rapporté Jalopnik en citant un média local.

    La vidéo montre que la Tesla a bloqué ses roues avant juste avant l'impact, ce qui correspond à l'affirmation de Huang selon laquelle il a appuyé sur la pédale de frein lorsqu'il a vu le camion renversé. Heureusement, Huang n'a pas été blessé, mais la Model 3 a été détruite comme l’a publié un utilisateur de Twitter. « Tesla a freiné très très tard. D'autres voitures ont freiné beaucoup plus tôt ». « Tout cela et pas un seul airbag dans la voiture ne semble s'être déclenché. Cela devrait être la grande histoire ici », a tweeté l’utilisateur.


    Les véhicules Tesla ont été impliqués dans de précédents accidents où Autopilot a réagi de façon similaire

    Nous avons déjà vu des pannes de pilote automatique où Autopilot a réagi de façon similaire face à des obstacles, en particulier lorsqu'il s'agissait de gros objets immobiles. Le 29 mai 2018, à la suite d’un premier accident au cours du même, une berline en mode pilote automatique s'est écrasée contre un véhicule de police en stationnement. Le radar, des caméras avec une visibilité à 360 degrés et des capteurs installés dans la berline n’ont pas permis d’éviter la collision avec une voiture du Département de Police de Laguna Beach.

    Les enquêteurs de la sécurité des transports ont découvert en 2019 que la conception du système d'aide à la conduite par Tesla Inc. était en partie responsable d'un autre accident dans lequel un conducteur inattentif d’une voiture Tesla a percuté un camion d'incendie stationné sur l'autoroute 405, à Culver City près de Los Angeles en janvier 2018. Selon les résultats d’enquête du NTSB, un pick-up, qui roulait devant la Tesla, a changé de voie juste avant d'atteindre le camion d'incendie et une voiture de la patrouille routière. Mais au lieu de ralentir ou de freiner à son tour, le véhicule Tesla a accéléré et a heurté le camion à une vitesse de 49,9 km/h.

    En 2016, Joshua Brown, un homme de 40 ans qui était à bord de sa berline Tesla Model S, est entré en collision avec un camion semi-remorque. A l'époque, des enquêtes avaient révélé que le conducteur utilisait le pilote automatique avancé de Tesla au moment de l'accident. Ce système de pilotage automatique avait été mis en cause et cela avait entraîné la séparation de Tesla d'avec l'entreprise qui lui fournissait cette technologie. Mais les accidents ne se sont pas arrêtés suite au développement en interne d’une version de pilote automatique de deuxième génération.

    Le système de pilotage automatique de Tesla utilise principalement des caméras pour son système Autopilot, et des précédents accidents énumérés ci-dessus suggèrent que des situations comme celle-ci, un grand objet immobile de couleur claire sur la route par une journée ensoleillée peut être difficile à distinguer pour le système.

    Selon Jalopnik, « en général, les objets immobiles sont difficiles à distinguer pour les systèmes de freinage automatique d'urgence et les systèmes autonomes, car si vous utilisez des émetteurs de radar pour déclencher le freinage des objets immobiles, les voitures ont tendance à avoir beaucoup trop de faux positifs et d'arrêts involontaires que ce qui est sûr ou souhaitable ». « Les systèmes LiDAR, qu'Elon Musk a rejetés pour Tesla, pourraient probablement fournir de meilleures informations de portée pour de grands objets immobiles comme celui-ci que la configuration "toutes caméras" de Tesla », d’après Jalopnik.

    Selon un commentateur, « De telles choses sont tout à fait attendues des contrôleurs non linéaires à haute dimension (et les réseaux neuronaux utilisés pour la détection d'objets et l'analyse de décisions entrent dans cette catégorie)...». « Les réseaux neuronaux (NN) ne sont pas adaptés au contrôle à haute prévisibilité et à haut facteur de sécurité. Je me demande si, en fait, nous ne pouvons pas construire un contrôleur NN avec le niveau de détection d'objets inhabituels et de reconnaissance de scénarios de cas limite requis pour correspondre à la capacité moyenne des conducteurs humains à reconnaître et à réagir de manière appropriée à des situations inhabituelles », a-t-il ajouté.


    Les capacités du système Autopilot encore mises en cause

    Ce serait bien que le système de freinage d'urgence automatique d'Autopilot empêche ce genre d'accidents, mais il ne fonctionne pas toujours, et rien ne remplace une bonne attention à tout instant de la conduite. De plus, le fait de comprendre que les véhicules Tesla, comme toutes les voitures disponibles sur le marché aujourd'hui, ne sont pas capables de conduire de manière totalement autonome serait également très utile. Puisque le conducteur devrait être attentif même avec le pilote automatique activé, car c'est précisément le genre de situation où un humain en état d'alerte aurait vu que Autopilot ne fonctionnait plus et qu’il fallait qu’il prenne le contrôle du véhicule lui-même.

    En mars 2018, un véhicule Uber a été impliqué dans un accident mortel dans la ville de Tempe, en Arizona où l'entreprise testait ses voitures autonomes. Les capteurs installés sur ce type de véhicule pour détecter la présence d’obstacle n’ont pas pu alerter la conductrice de la présence d’une piétonne. Selon un rapport de la police de Tempe délivré un mois après les enquêtes préliminaires du National Transportation Safety Board, l'accident était « entièrement évitable » si seulement l'opératrice s’était concentrée sur la route tandis que la voiture fonctionnait de manière autonome. En effet, le rapport suggère que la conductrice de la voiture suivait une émission sur son smartphone au lieu de demeurer en état d’alerte.

    Même si le marketing de Tesla pour Autopilot est parfois déroutant, voire trompeur quant au niveau de capacité dont le système dispose, le constructeur de voiture électrique demande toujours aux conducteurs de garder les mains sur le volant et de faire attention à tout moment chaque fois qu'ils activent les fonctions.

    Ce dernier incident arrive à un moment délicat pour Tesla, étant donné que la société a récemment augmenté le prix de sa technologie d'autopilotage, dont le PDG Elon Musk a déclaré sur Twitter que la valeur de cette technologie dépassait les 100 000 dollars : « Le prix de la FSD (conduite entièrement autonome) va continuer à augmenter à mesure que le logiciel se rapproche de sa capacité d'autoguidage totale avec l'approbation des autorités de réglementation. À ce stade, la valeur de la FSD est probablement supérieure à 100 000 dollars ».

    « Les voitures ne devraient pas détecter les "obstacles". Elles devraient détecter les routes. Elles ne devraient pas chercher premièrement des exceptions à l'espace de conduite par des stratégies de classification ou de segmentation. Elles ne doivent détecter que l'espace praticable », a écrit un commentateur. « Soit vous détectez une route dégagée sur une distance d'arrêt complet au moyen d’une gamme fiable (non visuelle) avec des échantillons suffisamment denses pour éviter les vides qui pourraient accrocher les roues ... soit vous continuez à rencontrer des "objets" qui ont échappé à votre classification », a-t-il ajouté. Et vous, qu’en pensez-vous ?


    Sources : YouTube, Tweet

    Et vous ?

    Que pensez-vous de ce nouvel accident qui implique une Tesla Model 3 ?
    Selon le conducteur, Autopilot était activé au moment de l’accident. Quel commentaire en faites-vous ?
    Pensez-vous que le système Autopilot est en train de tendre vers le « Full Self Driving » promis par Tesla ?

    Lire aussi

    Le pilote automatique de Tesla est en partie responsable de l'accident de Culver City en 2018, la conception du véhicule ayant conduit le conducteur à se désengager de la conduite, selon le NTSB
    Autopilote : Tesla impliqué dans une nouvelle collision, une berline en mode pilote automatique s'est écrasée sur un véhicule de police
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident, et l'annonce des batteries de ses véhicules prenant feu
    Accident Uber : l'opérateur à bord du véhicule suivait une émission TV sur son portable, la collision était entièrement évitable, selon la police
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé
    Pensez-vous que le système Autopilot est en train de tendre vers le « Full Self Driving » promis par Tesla ?
    Je parlerai plus de "full self crashing"

    Heureusement que le conducteur s'en sort vivant. De plus sur une quatre voies au trafic plus que fluide, que fait la voiture sur la voie la plus à gauche ? J'espère qu'il a une bonne assurance et un slip blindé.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  3. #3
    Membre confirmé
    Que pensez-vous de ce nouvel accident qui implique une Tesla Model 3 ?
    La sélection naturelle prends son temps, doucettement mais sûrement ...

    Selon le conducteur, Autopilot était activé au moment de l’accident. Quel commentaire en faites-vous ?
    Bah ça fait des mois/années qu'on leurs dit de rester attentif à la route, de garder les mains sur le volant, que le système est une aide plus qu'un véritable autopilot, le "Full self driving" n'est pas encore près, qu'on recense pleins de cas d'accident dû au manque d'attention etc etc..
    Donc bon... En tant que fumeur je comprends le raisonnement de l'utilisateur, sauf que lorsqu'on me dit que j'ai des problèmes respiratoire et compagnie, ben je sais que c'est de ma faute, je vais pas crier que c'est la faute des fabricants, c'est pas eux qui m'allument une clope tout les matins avec mon café.

    Pensez-vous que le système Autopilot est en train de tendre vers le « Full Self Driving » promis par Tesla ?
    Il y arrivera, j'en suis certain, mais pas toute suite !

  4. #4
    Membre régulier
    Le mec était trop occuper à s'auto-sucer pour voir la route

  5. #5
    Membre du Club
    Citation Envoyé par marsupial Voir le message
    Je parlerai plus de "full self crashing"

    Heureusement que le conducteur s'en sort vivant. De plus sur une quatre voies au trafic plus que fluide, que fait la voiture sur la voie la plus à gauche ? J'espère qu'il a une bonne assurance et un slip blindé.

    Je sais qu'aux USA il n'y a aucune obligation de tenir la droite sur auteroute, peut-être est-ce la même chose a Taiwan?

    Si non il y a quelque chose que je comprends pas, c'est autant que les NN ne soient pas encore au point d'accord, que les conduite autonome ne le soit pas non plus d'accord, mais qu'elle n'ait pas un radar frontal, ou ne l'utilise pas, comme la plus part des voitures haut de gammes me laisse perplexe...

    Beaucoup de voiture haut de gammes comme Mercedes ou Audi ont des systèmes de freinage d'urgence en cas d'obstacle, pour quoi est-ce que ça ne fonctionne pas sur une tesla?

  6. #6
    Membre à l'essai
    Que pensez-vous de ce nouvel accident qui implique une Tesla Model 3 ?

    Quand on voit la vidéo, on se demande si le conducteur ne voulait pas faire le test de savoir si le véhicule allait rentrer dans ce camion au péril de sa vie ? Pourquoi ne pas avoir évité l'obstacle avant ?
    Ce n'est pas un auto-pilot, les concessionnaires le précisent bien.
    Je ne comprends pas cette vidéo, heureusement pour lui, il est encore en vie.

  7. #7
    Membre éclairé
    C'est quand même dingue, avoir le régulateur de vitesse ne m’empêche pas de vérifier que mon véhicule ne fait pas un excès de vitesse pour une raison x ou y...

  8. #8
    Modérateur

    La défaillance apparente elle est entre le volant et le siège !
    Ne pas voir un camion renversé au millieu de l'autoroute , ca veux dire que ca fait un moment que t'as pas jeter un oeil à la route ...

    L'erreur de Tesla dans tout ca , elle est surtout marketing. Appeler leur système autopilot est encore un peu présomptueux , même si il y'a des cas ou ca marche formidablement bien , il à encore besoin d’assistance humaine ce que certains ne semble pas avoir vraiment compris.
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  9. #9
    Expert éminent
    Citation Envoyé par grunk Voir le message

    Ne pas voir un camion renversé au millieu de l'autoroute , ca veux dire que ca fait un moment que t'as pas jeter un oeil à la route ...
    C'est quand même un cas très basique d'obstacle … Incroyable que le système ne gère pas encore ça !

  10. #10
    Membre averti
    Je trouve ça hypocrite de se retrancher derrière la mise en garde de Tesla selon laquelle il faudrait toujours rester attentif car le système n'est pas assez fiable.
    Il est impossible pour moi de rester attentif si la voiture se conduit seul 99% du temps.
    Soit on considère qu'un tel système est suffisamment sûr soit on ne l'autorise pas...

  11. #11
    Expert éminent
    Citation Envoyé par Andarus Voir le message
    .
    Il est impossible pour moi de rester attentif si la voiture se conduit seul 99% du temps.
    Entièrement d'accord … C'est ce qui rend au final le système dangereux.

  12. #12
    Membre actif
    Citation Envoyé par Darkzinus Voir le message
    C'est quand même un cas très basique d'obstacle … Incroyable que le système ne gère pas encore ça !
    Je comprends bien qu'il faut tendre vers l'infaillible, mais un camion renversé en plein milieu d'une autoroute, c'est basique ?... Pour moi ça sonne assez exceptionnel/inattendu comme situation, contrairement à un piéton inattentif, un freinage brutal ou un animal traversant la chaussée.
    Humainement, oui c'est basique, car on peut le repérer bien à l'avance, mais informatiquement, non. Même si c'est difficilement tolérable, pour moi ce cas devrait rentrer dans les lacunes compréhensibles de l'Autopilot. D'autant plus que l'Autopilot ne garantit en aucun cas une sécurité infaillible et requiert toujours l'attention du conducteur... Ce n'est pas un casque ou une armure qui protège passivement, c'est une assistance à la conduite.

    En revanche, les airbags non déclenchés (Si j'ai bien lu), c'est intolérable.

  13. #13
    Membre éprouvé
    Rester attentif alors que le système gère le plus gros du boulot, une utopie dangereuse et ridicule.

    Et en plus là on ajoute apparemment le coté, "j'suis geek et je joue avec mon gadget à 100k$" alors j'attends de voir si le truc réagit... Il a eu de la chance de taper la partie du camion capable de dissiper de l’anergie sans trop de dégâts. Il aurait tapé le tracteur et on ne retrouvait rien de la voiture !

    Ces autopilot n'auraient jamais du être autorisés sur la route et devraient être interdits au plus vite.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  14. #14
    Membre averti
    La bache du camion était blanche comme une forte lumière à contre-jour
    Je remarque que le camion était blanc tout blanc. La lumière vient du côté gauche de la voiture, probablement légèrement en arrière, d'après les ombres et le soleil est bas sur l'horizon. Donc la bâche devait être éclairée par une lumière rasante. Il est possible que la Tesla ait identifié cela comme une lumière solaire à contre jour.
    Mais je trouve l'idée de détecter l'espace où rouler plutôt que les obstacles innombrables qu'on peut rencontrer est probablement une judicieuse piste de recherche. Mais je remarque aussi qu'ici, même avec cette idée de détecter l'espace où rouler, il est probable que la Tesla aurait aussi foncé dans le camion, car "elle a vu" une absence d'obstacle donc un espace où rouler.

    Statistiquement, combien d’accident avec une Tesla par km parcourus en autopilot et combien d'accidents avec une voiture classique par km parcourus ? Si la comparaison statistique est nettement en faveur de la Tesla il faudra seulement accepter que rien n'est parfait, travailler encore à son perfectionnement et préférer le système automatique.

  15. #15
    Membre expérimenté
    Tesla a bien conscience que si les gens achete leur voiture autonome c'est justement pour pallier a un manque d'attention?

  16. #16
    Nouveau Candidat au Club
    autopilot
    le problème vient surtout que le véhicule arrêté n'émet aucune information autre que visuelle, si par le GPS tous les véhicules envoient leurs positions, moins de problèmes, donc pas moins d'automatisme mais plus!!

  17. #17
    Membre éprouvé
    Citation Envoyé par ec Voir le message
    Statistiquement, combien d’accident avec une Tesla par km parcourus en autopilot et combien d'accidents avec une voiture classique par km parcourus ? Si la comparaison statistique est nettement en faveur de la Tesla il faudra seulement accepter que rien n'est parfait, travailler encore à son perfectionnement et préférer le système automatique.
    et statistiquement, combien d'accidents avec des voitures équipées d'aides à la conduite (tous ces outils qui aident le conducteurs, en complément de sa vigilance pleine et entière) par rapport à l'autopilot qui n'est qu'une voiture autonome suffisamment pas fiable pour qu'il soit exigé contractuellement une utopique vigilance du conducteur ?

    La voiture autonome est à mes yeux une absurdité conceptuelle, une sorte de kiff ultime du technicien comme le robot humanoïde, à vouloir remplacer l'homme là où il serait infiniment plus efficace d'aider l'homme à faire mieux et également tellement plus simple en terme d’ethnique et de responsabilités.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  18. #18
    Membre éprouvé
    Citation Envoyé par mqamulot Voir le message
    le problème vient surtout que le véhicule arrêté n'émet aucune information autre que visuelle, si par le GPS tous les véhicules envoient leurs positions, moins de problèmes, donc pas moins d'automatisme mais plus!!
    et encore moins d'autonomie...

    Ce que vous décrivez est à l'inverse de tout ce qui se pratique en automatisme lié à la sécurité, (en gros, plus c'est compliqué, plus ça a des pépins)

    Et si on garde le coté fort intéressant de lier les voitures entres elles on en arrive à une logique comme celle du train : le réseau (ici la route) impose au véhicule sa position (donc sa vitesse etc), le véhicule qui a un pépin mécanique ou refuse la contrainte de la route est exclus du réseau. Le concept est très différent mais ce serait hautement efficace en terme des fluidité du réseau (ce qui est aujourd'hui et encore plus demain un énorme problème de la route).
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  19. #19
    Membre habitué
    comme un aria
    Pour l'usager des véhicules avec auto pilote il faut s'attendre à des effets secondaires: trouble du système vestibulaire, intimidation, sentiment de domination, endormissement... Autant de raison pour employer sa concentration à surveiller les mouvements du véhicules (conséquences) plutôt que les causes qui se déroulent sur la route. Il existe une relation crew/master (galvaudée) réversible qui peut être vécu différemment par les utilisateurs.
    Il manque à Tesla une panoplie de recommandation comme les standards d'accessibilité du W3C afin de corriger l'effet induit par la soumission au système de navigation et faciliter l'interaction qui se perd au profit de la domination.

###raw>template_hook.ano_emploi###