2 pièce(s) jointe(s)
Une agence fédérale de la sécurité blâme Tesla et les régulateurs pour utilisation abusive d'Autopilot
Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée
Qui allègue que le pilote automatique a causé l’accident
Tesla fait l’objet de poursuite en justice par la famille de Walter Huang, un ingénieur Apple, décédé dans le cadre d’un accident mortel qui s’est produit le 23 mars 2018 en Californie aux Etats-Unis. Huang, qui avait 38 ans, est décédé lorsque sa Tesla Model X 2017 a heurté une glissière de sécurité en béton sur l'autoroute 101 à Mountain View. Le conducteur est décédé plus tard à l’hôpital après avoir signalé que l'autopilotage du véhicule Model X de Tesla était enclenché lors de l'accident. La poursuite pour mort abusive, intentée par la famille de Huang devant la Cour supérieure de Californie, comté de Santa Clara, allègue que des erreurs commises par le système d'aide à la conduite du pilote automatique de Tesla ont causé l'accident qui a tué le propriétaire de la berline impliquée dans l’accident.
La poursuite allègue que le système d'aide à la conduite du pilote automatique de Tesla a mal interprété les lignes de voie, n'a pas détecté la glissière de sécurité en béton, a échoué dans le freinage et a plutôt accéléré dans la médiane. En effet, la berline en mode pilotage automatique a percuté la glissière après que Huang ait accéléré jusqu’à 71 mi/h (114 km/h). Dans un communiqué, B. Mark Fong, associé chez Minami Tamaki LLP, l'une des sociétés représentant la famille a déclaré le mercredi :
« Mme Huang a perdu son mari et deux enfants ont perdu leur père parce que Tesla est en train de tester son logiciel Autopilot sur des pilotes actifs ». « La famille Huang veut empêcher cette tragédie d'arriver à d'autres conducteurs utilisant des véhicules Tesla ou des véhicules semi-autonomes », a-t-il ajouté.
Ce n’est pas la première poursuite, visant le système d'aide à la conduite du pilote automatique, dans laquelle Tesla a été impliqué. En janvier dernier, la famille d’un adolescent tué dans un accident, qui s’est produit en mai 2018 impliquant une berline Tesla, a intenté une action en justice contre le constructeur automobile. La plainte alléguait que la batterie de la berline était défectueuse et que l'entreprise avait fait preuve de négligence en enlevant un régulateur de vitesse sur la voiture. La Tesla S 2014 roulait à plus de 116 mi/h (186 km/h) quand elle a heurté un mur dans le voisinage de la route, causant la mort de l’adolescent assis sur le siège passager. Pendent ce même mois de mai, une autre berline Tesla en mode pilotage automatique s'est écrasée dans un véhicule du Département de Police de Laguna Beach stationné, alors que le mode pilotage automatique était enclenché.
Plus tôt, en 2016, le constructeur annonçait dans son plan d’activité que lorsque les organismes de réglementation auront approuvé l'autoconduite véritable, cela signifiera que vous pourriez invoquer votre Tesla à partir de n'importe où. À mesure que la technologie évolue, tous les véhicules Tesla disposeront du matériel nécessaire pour fonctionner de manière totalement autonome. L’entreprise a ajouté que vous pourrez dormir, lire ou faire autre chose en route vers votre destination. Ce discours aurait certainement donné une entière confiance en la conduite autonome de Tesla à certains propriétaires.
Par ailleurs, une enquête commandée par l’IIHS (Insurance Institute for Highway Safety) au HLDI (Highway Loss Data Institute) est parvenue, en août 2018, à la conclusion selon laquelle la fonctionnalité Autopilot de Tesla, se traduit par « moins de dommages matériels et moins de dommages corporels » qu’une conduite en mode manuelle (c’est-à-dire sans l’assistance du pilote automatique).
Dans la présente plainte, la famille allègue que le marketing du pilote automatique fait par Tesla a laissé à Huang une impression exagérée des capacités de la technologie. Les allégations contenues dans la plainte déposée mercredi contre Tesla incluent également la conception défectueuse du produit, le défaut d'avertissement, les fausses déclarations intentionnelles et négligentes et la publicité mensongère, selon le Washington Post.
Le Washington Post a rapporté que lors d'un appel téléphonique avec des journalistes mercredi, Fong a déclaré que peu de temps après l’achat de la berline, Huang s'est plaint aux membres de sa famille des défauts présumés du pilote automatique. D’après Fong, Huang a également amené la voiture chez un concessionnaire, qui n'a pas réussi au départ à identifier le problème de la voiture et lui a dit de continuer à la conduire.
Toutefois, Tesla avait déjà déclaré qu’aucune plainte de la part de l’ingénieur n’a été enregistrée dans ses dossiers de service et n'avait pas trouvé que Huang s'était plaint de la performance du pilote automatique. D’après la compagnie, Huang s'était plutôt plaint d'un problème de navigation, qui n'a rien à voir avec les performances du pilote automatique. En octobre 2018, bien après l'écrasement, la compagnie a introduit une fonction connue sous le nom de « Navigate on Autopilot ».
La plainte de la famille de Huang vise également le ministère des Transports de la Californie. En effet, la barrière médiane en béton de l'autoroute que le véhicule de Huang a heurté était dépourvue de sa protection qui aurait atténué d'impact, selon le dépôt de la plainte. Mais malheureusement Caltrans, le Département des Transports de la Californie, n'a pas pu remplacer la protection après un accident antérieur, accuse le procès. Tesla a également attribué les graves dommages, qu'il a décrits comme étant sans précédent pour le modèle X, à l'absence d'un protecteur atténuateur d’impact.
Quelques jours après l'accident, Tesla a publié deux articles de blog dans lesquels la firme reconnaissait que le pilote automatique avait été engagé au moment de l’accident. Tesla a commenté aussi que le conducteur avait reçu plusieurs avertissements visuels et un avertissement sonore plus tôt au cours du trajet et que les mains du conducteur n'avaient pas été détectées sur le volant pendant six secondes avant la collision.
Mais ces commentaires ont suscité une réponse du National Transportation Safety Board (NTSB), qui s'est dit « mécontent de la divulgation d'informations d'enquête par Tesla ». NTSB exige que les entreprises qui sont parties à une enquête sur un accident menée par un organisme ne divulguent pas les détails de l'incident au public sans autorisation, selon le Washington Post.
Dans une autre déclaration publiée par Tesla trois semaines après l’accident, la compagnie avait blâmé Huang et niait toute responsabilité morale ou légale pour l'accident :
« Selon la famille, M. Huang savait très bien que le pilote automatique n'était pas parfait et, plus précisément, il leur a dit qu'il n'était pas fiable à cet endroit précis, mais il a néanmoins engagé le pilote automatique à cet endroit. L'accident s'est produit par temps clair avec plusieurs centaines de pieds (unité de longueur) de visibilité devant, ce qui signifie que la seule façon que l'accident se soit produit est que M. Huang n'ait pas prêté attention à la route, malgré les multiples avertissements de la voiture pour le faire. »
Cette déclaration a contribué à désintégrer davantage la relation entre Tesla et le NTSB, qui affirmé par la suite qu'il retirait Tesla de la liste des parties à son enquête sur l'accident. En juin dernier, le NTSB a publié un rapport préliminaire sur l'accident, concluant que la voiture était en mode pilote automatique et que les mains de Huang avaient été détectées sur le volant trois fois, pendant 34 secondes au total, dans la minute précédant l'accident. Toutefois, les mains de Huang n'ont pas été détectées dans les six dernières secondes, d’après le rapport.
Le rapport a révélé qu'au cours des 18 minutes et 55 secondes qui ont précédé l'impact, la berline Tesla a fourni deux alertes visuelles et une alerte auditive pour que le conducteur place ses mains sur le volant. Les alertes ont été faites plus de 15 minutes avant l'accident. Le rapport du NTSB a retenu également que le véhicule a accéléré jusqu’à 70,8 mi/h (114 km/h) dans les trois dernières secondes avant l'impact et qu'il s'est déplacé vers la gauche alors qu'il approchait de la barrière en béton qui divisait la voie de circulation principale de la 101.
Les avocats de la famille ont déclaré qu'ils feraient pression pour obtenir des informations sur toute l'étendue des accidents et des blessures liés aux pilotes automatiques dans le cadre de leur enquête.
Les véhicules Tesla ont été impliqués dans plusieurs autres accidents qui ont fait l’objet de poursuite judiciaire au cours de ces dernières années. Ce qui pourrait avoir des conséquences plus larges pour l'entreprise qui tente de convaincre davantage de consommateurs d'acheter ses véhicules. Ses poursuites qui impliquent des problèmes présumés du pilote automatique pourraient également entraîner des obstacles réglementaires plus importants pour l'entreprise alors qu'elle tente de déployer une flotte de taxis autonomes. Le lancement de cette flotte pourrait intervenir dans les années à venir, selon les prévisions du PDG Elon Musk.
Source : The Washington Post
Et vous ?
:fleche: Qu’en pensez-vous ?
:fleche: Que pensez-vous des commentaires publiques de Tesla sur les accidents impliquant ces véhicules ?
:fleche: Quel résultat prévoyez-vous pour cette nouvelle poursuite ?
Lire aussi
:fleche: Tesla poursuivi en justice après un accident mortel, accusé d'avoir rendu « déraisonnablement dangereuse » la voiture, qui s'est écrasée à 186 km/h
:fleche: Le propriétaire d'une Tesla affirme que son véhicule autonome lui a sauvé la vie, et publie une vidéo de l'incident pour étayer ses propos
:fleche: Autopilote : Tesla impliqué dans une nouvelle collision, une berline en mode pilote automatique s'est écrasée sur un véhicule de police
:fleche: Pilotage automatique : la société Tesla accusée de discours marketing trompeurs, les groupes de défense des consommateurs appellent la FTC à enquête
:fleche: La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
1 pièce(s) jointe(s)
Un ingénieur d'Apple mort dans l’accident de son véhicule Tesla s’était déjà plaint du logiciel Autopilot
Un ingénieur d'Apple mort dans l’accident de son véhicule Tesla s’était déjà plaint du logiciel Autopilot
Et de ses dysfonctionnements, après l’application d’une mise à jour
Walter Huang, ancien ingénieur logiciel d’Apple mort dans un accident de circulation en mars 2018 lorsque son véhicule Tesla Model X a heurté un mur Jersey (une barrière en béton, parfois modulaire, utilisée comme séparateur de voies sur une route), s’était déjà plaint du mauvais fonctionnement de sa voiture autonome sur le même tronçon de l’autoroute de la Silicon Valley où il a trouvé la mort. Ses plaintes ont été détaillées dans des documents publiés ce mardi par les enquêteurs fédéraux dans le cadre d’une investigation concernant deux accidents de Tesla impliquant le pilote automatique, l’un en Californie et l’autre en Floride.
Le National Transportation Safety Board (NTSB) - l’agence américaine indépendante responsable des enquêtes sur les accidents aéronautiques, routiers, maritimes, ferroviaires ainsi que ceux concernant les pipelines (gazoducs et oléoducs) - enquête actuellement pour déterminer les causes de l’accident qui ont conduit au décès tragique de Walter Huang près de Mountain View, et du conducteur Jeremy Banner environ un an plus tard à Delray Beach.
Les documents publiés par le NTSB indiquent que Walter Huang avait confié à sa femme, à son frère, à un ami qui possède un modèle X et à l’avocat familial que, sur le même tronçon près de Mountain View, le pilote automatique de sa Tesla avait déjà dirigé son 4x4 vers le mur Jersey où il s’est écrasé par la suite. Selon l’avocat de la famille de Huang, après ce premier incident, Huang avait confié à son ami avoir noté que l’application d’une mise à jour du logiciel Autopilot a affecté les performances de son véhicule et probablement causé le comportement kamikaze étrange de ce dernier.
Les enregistrements d’un iPhone récupéré sur le lieu de l’accident ont montré que Huang l’utilisait peut-être avant l’accident. Les enregistrements obtenus d’AT&T ont montré que les données avaient été utilisées alors que le véhicule était en mouvement, mais la source des transmissions n’a pas pu être déterminée, a écrit le NTSB. Une transmission a eu lieu moins d’une minute avant l’accident.
Lors de l’accident en Floride, Banner a activé la fonction pilote automatique de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant, selon des documents du NTSB. La voiture est alors passée sous un semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.
De toute évidence, Huang et Banner sont morts parce qu’ils ont confié la direction des opérations de conduite à l’Autopilot et ont pensé, peut-être juste l’espace d’un instant, que le système d’assistance à la conduite de Tesla était vraiment autonome et infaillible.
Le nom donné par Tesla au système de pilotage automatique embarqué dans les voitures autonomes de la marque peut prêter à confusion, car à l’heure actuelle, l’Autopilot est un système partiellement automatisé conçu pour maintenir un véhicule sur sa voie et garder une distance de sécurité avec les véhicules qui le précèdent. Il peut également changer de voie avec l’accord du conducteur. Selon les dernières recommandations du constructeur, l’Autopilot est au stade de son développement actuel destiné à être utilisé uniquement pour l’assistance à la conduite et les conducteurs doivent être prêts à intervenir à tout moment. Signalons également que le logiciel Autopilot de Tesla a été bridé sur le marché européen pour se conformer aux nouvelles réglementations de l’UE, mais que l’entreprise a promis de se battre pour lever ces restrictions qui empêcheraient d’offrir une expérience de conduite autonome complète.
Quoi qu’il en soit, depuis le drame, la famille Huang a poursuivi Tesla ainsi que Caltrans – l’entreprise en charge de l’entretien routier sur la voie où a eu lieu l’accident – pour avoir prétendument négligé d’entretenir l’autoroute. Il faut souligner que la portion du mur Jersey au niveau de laquelle la Model X de Huang s’est écrasée avait été endommagée et réparée plus fréquemment que toutes les autres. Au cours des trois années qui ont précédé l'accident de Huang, cette portion a été cognée au moins cinq fois, dont une fois lors d'un accident mortel. Le NTSB doit publier les conclusions de son enquête sur l’accident qui a conduit au décès de Walter Huang le 25 février prochain.
Source : NTSB, Plainte de la famille Huang (PDF)
Et vous ?
:fleche: Qu’en pensez-vous ?
:fleche: Tesla ne devrait-il pas renommer son logiciel Autopilot pour éviter aux conducteurs de se méprendre sur les capacités réelles de ce dernier à l'heure actuelle ?
Voir aussi
:fleche: L'Autopilot de Tesla bridé sur le marché européen pour se conformer aux nouvelles réglementations de l'UE, mais Tesla promet de se battre pour offrir une expérience de conduite autonome complète
:fleche: Elon Musk dévoile un tout nouveau véhicule électrique de la marque Tesla, le Cybertruck, un pick-up avec un design futuriste qui a déjà enregistré près de 200 000 précommandes
:fleche: Tesla lance la plus grande mise à jour connue à ce jour de son logiciel Autopilot, la version 10.0 inclut Spotify, Netflix, YouTube et plus encore
:fleche: Tesla manque la liste des « voitures les plus sûres » d'une compagnie d'assurance parce que ses véhicules électriques ne s'écrasent pas assez souvent, selon un rapport de Teslarati
2 pièce(s) jointe(s)
Une agence fédérale de la sécurité blâme Tesla et les régulateurs pour utilisation abusive d'Autopilot
Une agence fédérale de sécurité blâme Tesla et les autorités de régulation pour utilisation abusive de sa technologie Autopilot,
Lors d'une audience sur l'accident impliquant un ingénieur d'Apple
Tesla fait l’objet de poursuite en justice par la famille de Walter Huang, un ingénieur Apple, décédé dans le cadre d’un accident mortel qui s’est produit le 23 mars 2018 en Californie aux Etats-Unis. Mardi, le président du National Transportation Safety Board (NTSB) a reproché à Tesla de mettre en péril la sécurité routière en ne prenant pas de mesures pour empêcher « l'abus prévisible » de la fonction d'assistance à la conduite de sa technologie Autopilot, a rapporté Los Angeles Times.
Robert Sumwalt, président du NTSB, a dirigé mardi une réunion du Conseil consacrée à l'accident mortel de mars 2018 d'une voiture autonome Tesla Model X qui a tué le conducteur, Walter Huang. Huang avait engagé le pilote automatique et s'était écrasé contre une barrière de sécurité défectueuse sur l'autoroute 101 à Mountain View alors qu'il jouait à un jeu vidéo sur son smartphone Apple, a déclaré Sumwalt. L’agence fédérale a également reproché à la branche sécurité routière du ministère américain des Transports de ne pas avoir correctement réglementé la technologie des voitures autonomes, qui évolue rapidement.
« Les régulateurs gouvernementaux ont assuré une surveillance insuffisante » de l’ Autopilot de Tesla et des systèmes d'autopilotage d'autres constructeurs, a déclaré le président du NTSB, Robert Sumwalt, lors d'une réunion du conseil de sécurité à Washington, D.C. Le Conseil a adopté une longue liste de mesures destinées à réduire les accidents, à mesure que les technologies de « conduite partiellement automatisée » deviennent plus populaires dans les nouveaux véhicules.
Selon Latimes, en 2017, le NTSB a recommandé que les constructeurs automobiles conçoivent des systèmes d'assistance à la conduite pour empêcher l'inattention et la mauvaise utilisation par le conducteur humain. Les constructeurs automobiles, dont Volkswagen, Nissan et BMW, ont fait état de leurs tentatives pour se conformer à ces recommandations, mais Tesla n'est jamais revenu devant le NTSB, a rapporté Latimes. « Malheureusement, un fabricant nous a ignorés, et ce fabricant est Tesla », a déclaré M. Sumwalt mardi. « Nous n'avons rien entendu, nous attendons toujours », a-t-il ajouté.
L’Autopilot est une fonction d'aide à la conduite automatisée vendue dans le cadre de ce que Tesla appelle un ensemble de « capacité d'autopilotage complète » pour 7 000 dollars qui peut accélérer, freiner et changer de voie automatiquement, bien que le conducteur soit censé y prêter attention. Elon Musk, le PDG et co-fondateur de Tesla, vante très souvent cette technologie. Il a même annoncé en avril dernier qu’il y aurait 1 million de robo-taxis Tesla en circulation cette année. D'autres constructeurs automobiles fabriquent des systèmes similaires, mais aucun n'est aussi agressif sur le plan technologique que celui de Tesla. Et aucun ne fait référence à l' « autopilotage », qui, même chez Tesla, reste un terme ambitieux, d’après Latimes.
Selon le quotidien, personne ne vend à des clients individuels des voitures qui peuvent se conduire entièrement seules, aujourd'hui, et la plupart des experts du secteur disent que cela prendra des années avant que cela n'arrive ou même n'arrivera peut-être jamais. Tesla a déclaré que les 7 000 dollars initiaux permettent d'acheter les fonctionnalités actuelles ainsi que les fonctionnalités d'auto-conduite qui seront ajoutées au fil du temps. Le NTSB a également condamné la fonction "do not disturb while driving" d’Apple.
La fonction "ne pas déranger en conduisant" de l'iPhone est facultative, au lieu d’être un paramètre par défaut
Selon Latimes, l'employeur de Huang, Apple, a fait des critiques accablants. Et M. Sumwalt a reproché à la fonction "ne pas déranger en conduisant" de l'iPhone d'Apple d’être facultative, et non un paramètre par défaut. Il a déclaré que les entreprises, y compris Apple, doivent faire plus pour encourager leurs employés à ne pas utiliser de smartphones au volant.
M. Sumwalt a noté, en effet, que l'administration fédérale de la sécurité et de la santé au travail recommande que les entreprises interdisent à leurs employés d'utiliser des appareils personnels pour le travail ou le courrier électronique lorsqu'ils conduisent, que le voyage soit pour les affaires de l'entreprise ou non. Comme Apple, peu d'entreprises suivent cette recommandation, a-t-il déclaré. Bien que Huang ait joué à un jeu vidéo sur son téléphone, les enregistrements de données montrent qu'il a pu envoyer des SMS avant cela, a rapporté Latimes.
« Apple n'a pas encore reconnu sa propre responsabilité en tant qu'employeur », a déclaré M. Sumwalt. « Ils n'ont pas dit à leurs 135 000 employés que nous nous soucions de vous et que nous ne voulons pas que vous vous tuiez ou que d'autres personnes se suicident sur la route. Apple a échoué à cet égard », a-t-il ajouté.
Selon M. Sumwalt, l'accident de Mountain View n'était pas un incident isolé, mais qu'il illustrait les problèmes de sécurité en jeu, car les humains et les systèmes robotisés se partagent de plus en plus la conduite, non seulement de Tesla mais aussi des véhicules de tous les constructeurs. « Il est temps d'arrêter de permettre aux conducteurs de tout véhicule partiellement automatisé de prétendre qu'ils ont des voitures sans conducteur », a-t-il déclaré.
Selon les enquêteurs du NTSB, Huang conduisait sa Tesla Model X de 2018 avec l’Autopilot activée lorsqu'elle est passée de 62 à 71 km/h et a heurté une barrière de sécurité endommagée au bout d'un mur en béton. L’Autopilot était enclenché pendant près de 19 minutes avant l'accident et Huang n'avait plus les mains sur le volant dans les six dernières secondes, selon les enquêteurs.
Selon le NTSB, deux facteurs majeurs ont contribué à la gravité de l'accident. D'une part, avec l’Autopilot enclenché, la Model X a roulé en plein milieu sur la zone à rayures blanches où les voitures ne sont pas censées aller, s'écrasant de front contre un "coussin intelligent" en acier souple destiné à atténuer l'impact d'un accident. Deuxièmement, le coussin était déjà très endommagé. D’après l’enquête, après qu'une Toyota Prius l'ait percuté 11 jours plus tôt, la longueur de l'atténuateur a été réduite, offrant moins de protection contre le mur médian en béton d'un mètre de haut qui se trouve derrière. Le dispositif de sécurité n'a été réparé par Caltrans, le département des Transports de Californie, que trois jours après la mort de Huang.
Tesla n'a pas fourni un moyen suffisant pour surveiller le manque d'attention du conducteur
Dans ses conclusions, l’enquête du NTSB a retenu que le système de traitement de la vision de la voiture de Huang ne pouvait pas maintenir une ligne de conduite appropriée et a dirigé la voiture contre une barrière de sécurité en acier et un mur en béton. Le NTSB condamne le système d'évitement des collisions de la voiture pour n'avoir pas détecté la barrière de sécurité – « et il n'a même pas été conçu pour le faire ». L’enquête a conclu également que le système d'avertissement de collision avant de la voiture n'a pas donné d'alerte, et le système de freinage automatique ne s'est pas activé. Le NTSB reproche également à Tesla, dans ses conclusions, de n'avoir pas fourni un moyen suffisant pour surveiller le manque d'attention du conducteur.
Selon Latimes, le Conseil national de sécurité a adressé une grande partie de ses critiques au principal organisme de réglementation de la sécurité routière du pays, la National Highway Traffic Safety Administration (NHTSA), qui est une branche du ministère des Transports. La NHTSA - qui a le pouvoir de faire appliquer la loi et peut rappeler les voitures dont la technologie automobile est défectueuse - n'a pas mis en œuvre les recommandations de prévention des accidents émises par le NTSB et, au lieu de cela, « se contente d'attendre que les problèmes surviennent plutôt que de traiter les questions de sécurité de manière proactive », a déclaré le Conseil.
Le NTSB, qui est une agence fédérale indépendante qui n’a pas de pouvoir d'exécution, est très sélectif. Il choisit les accidents qui peuvent faire progresser la connaissance des questions de sécurité, d’après Latimes. Il y a des millions d'accidents de la route aux États-Unis chaque année, mais l’agence enquête actuellement sur seulement 17 accidents, dont trois impliquant la technologie Autopilot de Tesla. La NHTSA a déclaré qu'elle enquêtait également sur au moins 14 accidents liés à la technologie Autopilot.
Dans des résultats d’enquête du NTSB concernant un autre accident impliquant l’Autopilot, les enquêteurs de la sécurité des transports ont découvert que la conception du système d'aide à la conduite par Tesla était en partie responsable d'un accident dans lequel un conducteur inattentif a percuté un camion d'incendie stationné sur l'autoroute 405, à Culver City près de Los Angeles en janvier 2018, a rapporté Los Angeles Times en septembre dernier. Selon le NTSB, la mauvaise utilisation et la confiance excessive dans le système de pilotage automatique ainsi que la conception de l’Autopilot lui-même permettent au conducteur de se désengager de la tâche de conduite, d’après le NTSB. Personne n'a été blessé dans cet accident, sur lequel le NTSB continue d'enquêter.
Un commentateur n’est pas d’accord avec certains points dans l’enquête concernant l’accident de Mountain View. Selon lui, le pilote automatique lui permet de mieux conduire, et pour lui, c'est l'homme qui est en cause dans l’accident, pas la technologie. Et vous, qu’en pensez-vous ?
Source : Los Angeles Times
Et vous ?
:fleche: Que pensez-vous des recommandations du NTSB ?
:fleche: Selon vous, c’est l’Autopilot qui devait être condamné ?
:fleche: Selon vous, le manque d’attention du conducteur est-il imputable à la technologie de Tesla ou au conducteur ?
Lire aussi
:fleche: Tesla poursuivi en justice dans le cadre d'une poursuite pour mort injustifiée, qui allègue que le pilote automatique a causé l'accident
:fleche: Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour
:fleche: Un dirigeant de Volkswagen affirme que les voitures autonomes de niveau 5 (conduite entièrement autonome) n'arriveront peut-être jamais, toutefois, le niveau 4 lui semble réalisable
:fleche: Le pilote automatique de Tesla est en partie responsable de l'accident de Culver City en 2018, la conception du véhicule ayant conduit le conducteur à se désengager de la conduite, selon le NTSB