IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    June 2009
    Messages
    1 387
    Détails du profil
    Informations forums :
    Inscription : June 2009
    Messages : 1 387
    Points : 4 637
    Points
    4 637
    Par défaut
    Citation Envoyé par smarties Voir le message
    Ca sera toujours le cas à mon avis tant que les véhicules ne sont pas capables de communiqués entre eux. Chaque constructeur automobile fait les choses dans son coin et c'est idiot.
    On cherche à reproduire une conduite humaine alors qu'il faudrait mettre en place une conduite interconnectée entre les véhicules.
    Et pour les vieux véhicules, mettre un boîtier qui permet de signaler aux véhicules autonomes leurs position et gabarit permettrait de faire de gros progrès.
    Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

    Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.

  2. #22
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    October 2017
    Messages
    1 652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : October 2017
    Messages : 1 652
    Points : 5 408
    Points
    5 408
    Par défaut
    A la lecture de ce score déplorable, une seule question me vient à l'esprit:

    Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

    Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?

  3. #23
    Membre expert
    Homme Profil pro
    Développeur
    Inscrit en
    August 2003
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : August 2003
    Messages : 1 177
    Points : 3 744
    Points
    3 744
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

    Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.
    En dehors du souci majeur de sécurité du système il y a que des avantages :
    - trafic plus fluide
    - réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
    - prédiction plus fiable des comportements

    La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).

    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.

  4. #24
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    June 2009
    Messages
    1 387
    Détails du profil
    Informations forums :
    Inscription : June 2009
    Messages : 1 387
    Points : 4 637
    Points
    4 637
    Par défaut
    Citation Envoyé par smarties Voir le message
    En dehors du souci majeur de sécurité du système il y a que des avantages :
    - trafic plus fluide
    Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
    Citation Envoyé par smarties Voir le message
    - réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
    Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

    Citation Envoyé par smarties Voir le message
    - prédiction plus fiable des comportements
    Pas besoin de connecter les voitures pour ça.

    Citation Envoyé par smarties Voir le message
    La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
    Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

    Citation Envoyé par smarties Voir le message
    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
    Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.


    à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

    Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.

  5. #25
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    March 2014
    Messages
    1 721
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : March 2014
    Messages : 1 721
    Points : 6 971
    Points
    6 971
    Par défaut
    Citation Envoyé par smarties Voir le message
    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
    Quand on voit les dégâts que peut occasionner un feu mal réglé, je ne m'appuierai pas trop sur cette technologie. Un exemple tout con, je rentrais du boulot au début des années 90. Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où la môme Piaf avait eu un accident en 1958. Manque de bol la temporisation entre les feux était mal réglée. Résultat : 2 morts un blessé grave. Et re manque de bol un avocat réputé de la région a été un des témoins du carton.

    Conclusion : 2 employés de la voirie ont fait de la prison pour homicide involontaire.
    Donc imaginons le moindre hack ou dysfonctionnement et ce sont des morts assurés.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  6. #26
    Membre expert
    Homme Profil pro
    Développeur
    Inscrit en
    August 2003
    Messages
    1 177
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : August 2003
    Messages : 1 177
    Points : 3 744
    Points
    3 744
    Par défaut
    Sur quoi peuvent s'appuyer les voitures autonomes pour savoir s'il y a des voitures qui se suivent devant soit ?
    En tant que conducteur, on peut faire un léger écart à gauche ou voir à travers les vitres des voitures devant mais avec une caméra c'est impossible et pour le radar je ne peux pas me prononcer (je ne connais pas assez le fonctionnement)

  7. #27
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    April 2011
    Messages
    4 281
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : April 2011
    Messages : 4 281
    Points : 9 396
    Points
    9 396
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où était morte la môme Piaf.
    Qu'est-ce que tu racontes ? Edith PIAF est morte dans son lit à Grasse en 1963 !
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  8. #28
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    March 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : March 2020
    Messages : 838
    Points : 58 020
    Points
    58 020
    Par défaut Une nouvelle vidéo montre une Tesla en pilotage automatique percutant une voiture de police.
    Une nouvelle vidéo montre une Tesla en pilotage automatique percutant une voiture de police après avoir alerté le conducteur
    150 fois

    Un nouveau rapport montre les images de la caméra de surveillance de Tesla d'un accident violent où le véhicule percute une voiture de police arrêtée alors que l'Autopilot est activé. La vidéo montre à quel point l'Autopilot gère mal les véhicules d'urgence arrêtés et comment n'importe quel conducteur en état d'ébriété peut provoquer un tel accident. Les agents blessés sur les lieux accusent et poursuivent Tesla pour cet incident.

    La vidéo est l'une des nombreuses obtenues par le Wall Street Journal en lien avec une enquête de la National Highway Traffic Safety Administration (NHTSA). La NHTSA est une agence fédérale américaine des États-Unis chargée de la sécurité routière. Cette enquête dure depuis la mi-2021 et concerne la manière dont Autopilot gère les véhicules d'urgence arrêtés sur la route. À ce jour, il a été impliqué, sans être jugé fautif, dans au moins 16 accidents.


    Dans la vidéo principale, une Tesla Model X semble percuter une voiture de police arrêtée sans aucun avertissement. Si l'on creuse un peu plus les détails, les responsabilités deviennent beaucoup plus floues.

    Le WSJ a également obtenu des données de la Tesla impliquée dans l'accident, qui montrent de nombreux appels à plus d'attention de la part du conducteur. En fait, au moment où l'accident se produit, le système a alerté le conducteur pour qu'il soit plus attentif pas moins de 150 fois sur une période d'environ 45 minutes. Néanmoins, le système n'a pas reconnu un manque d'engagement au point de couper l'Autopilot.

    Au bout de 45 minutes, la Tesla percute une voiture de police arrêtée sur la voie de droite. Les données du système Autopilot montrent qu'il a reconnu la voiture arrêtée 37 mètres ou 2,5 secondes avant l'accident. Le système Autopilot ralentit également la voiture avant de la désengager complètement. Le film montre clairement que tout conducteur vigilant aurait reconnu la situation et changé de voie.

    Les policiers blessés dans l'accident poursuivent Tesla, et non le conducteur prétendument en état d'ébriété, à la suite de l'accident. Tesla affirme que la faute incombe au conducteur. Dans au moins un autre cas, c'est exactement ce qu'un tribunal a conclu. L'Autopilot semble avoir fonctionné exactement comme prévu et un conducteur en état d'ébriété n'a pas fait son travail derrière le volant ici.

    Et la réalité est que n'importe quel véhicule avec un régulateur de vitesse et un conducteur en état d'ébriété au volant aurait probablement percuté la voiture de police à une vitesse plus élevée. L'Autopilot est peut-être décrié pour son nom, mais les conducteurs sont en fin de compte responsables de la manière dont ils choisissent de piloter n'importe quelle voiture, y compris une Tesla.

    Source : Le Wall Street Journal

    Er vous ?

    Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?

    Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?

    Voir aussi :

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S

    La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving selon les données publiées par le gouvernement fédéral

    Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour

    Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures, le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #29
    Modérateur
    Avatar de sevyc64
    Homme Profil pro
    Développeur informatique
    Inscrit en
    January 2007
    Messages
    10 157
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : January 2007
    Messages : 10 157
    Points : 27 941
    Points
    27 941
    Par défaut
    Citation Envoyé par Nancy Rey Voir le message
    Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?
    Peut-être, mais je ne pense pas que ce soit juste un problème de nom. Je pense même que ce problème de nom est plutôt un épiphénomène.

    Le problème est plutôt que sous prétexte d'automatisme, les conducteurs se désengagent totalement de la conduite alors qu'ils ne maitrisent pas du tout l'outil.
    Il y a eu, de la même façon, il y a quelques années les affaires de régulateurs soit-disant bloqués. En réalité, ça toujours été des conducteurs qui n'ont pas su gérer cet outil dans une situation particulière.
    La situation typique concernant les régulateurs est, dans une situation de relative urgence, on désengage le régulateur et on appuie sur le frein en même temps. Hors de freiner désengage automatiquement le régulateur. Pour peu que le désengagement automatique se produise un 1/4 seconde avant le désengagement manuel, celui-ci devient en réalité un réengagement avec derrière, potentiellement, panique du conducteur et accusation de blocage.

    Citation Envoyé par Nancy Rey Voir le message
    Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
    Pour moi, oui.
    150 alertes en 45 minutes, l'autopilote aurait du réagir bien avant et stopper le véhicule !

    Concernant l'autopilote, peut-être faudrait-il, comme sur les trains, une fonction Homme-mort.
    Sur les trains, le conducteur, même en pilotage automatique, doit actionner un levier toutes les 180 secondes (si je me trompe pas dans le chiffre) au maximum. A la 181ème seconde sans action, le train déclenche automatiquement le freinage d'urgence et l'immobilisation de la trame sur la voie.
    --- Sevyc64 ---

    Parce que le partage est notre force, la connaissance sera notre victoire

  10. #30
    Candidat au Club
    Homme Profil pro
    Développeur .NET
    Inscrit en
    June 2012
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : June 2012
    Messages : 3
    Points : 4
    Points
    4
    Par défaut L'avis d'un utilisateur
    Je me suis poser la question de : si j'ai un malaise en conduisant la model 3 comment va réagir le véhicule ?
    Souvent j'ai constaté que juste avant une situation dangereuse , le régulateur et maintient dans la voie se desengagent 1s avant . Je trouve que c'est une faute de Tesla. Dans le sens que même si le conducteur dort au volant , le véhicule devrait mettre les feux de détresse et ralentir le véhicule. Dans l'exemple de l'article. Le freinage d'urgence aurait dû fonctionner. Bien le conducteur a sa part de faute, Tesla aussi fautif car la désactivation de l'auto-pilote est mal fait. Normalement il y a le freinage d'urgence et d'autres systèmes d'évitement d'obstacle tout le temps actif?
    Je rappelle aussi que 150 demande de vigilance c'est normal, il n'y a pas de de volant capacitif pour détecter si le conducteur tiens le volant , donc le système demande régulièrement de manifester sa présence en bougeant légèrement le volant .

  11. #31
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 633
    Points : 32 315
    Points
    32 315
    Par défaut Tesla aurait demandé à la NHTSA d’expurger les informations sur son logiciel lors d’accidents
    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite,
    lors d'accidents

    Selon une enquête du New Yorker, Tesla a demandé à la National Highway Traffic Safety Administration de ne pas révéler si ses logiciels d’aide à la conduite, Autopilot et Full Self-Driving, étaient impliqués dans des accidents de la route. Tesla a prétendu que ces informations étaient des secrets commerciaux, et la NHTSA a dû se plier à la loi sur la sécurité des véhicules qui protège la confidentialité des entreprises. L’enquête révèle les tensions entre Elon Musk, le PDG de Tesla, et le gouvernement américain, alors que les logiciels de Tesla font l’objet de controverses pour leur manque de fiabilité et de sécurité.

    « Tesla a demandé l'expurgation de champs du rapport d'accident en affirmant que ces champs contenaient des informations commerciales confidentielles », a déclaré un porte-parole de la NHTSA. « La loi sur la sécurité des véhicules limite explicitement la capacité de la NHTSA à divulguer ce que les entreprises qualifient d'informations confidentielles. Une fois qu'une entreprise revendique la confidentialité, la NHTSA est légalement obligée de la traiter comme telle, à moins que/jusqu'à ce que la NHTSA passe par une procédure juridique pour rejeter la revendication ».

    Nom : Tesla.jpg
Affichages : 1266
Taille : 30,4 Ko

    Alors que Musk promet depuis des années que les Teslas à conduite autonome sont sur le point de voir le jour, les systèmes Autopilot et Full Self-Driving de Tesla ont essuyé un certain nombre de controverses au fil des ans.

    Autopilot, qui est censé aider sur les autoroutes, est le logiciel d'aide à la conduite intégré dans toutes les Teslas, tandis que Full Self-Driving est un ajout bêta qui coûte 15 000 dollars en une seule fois, ou des frais mensuels de 99 ou 199 dollars, en fonction des spécificités de la mise à jour. La conduite autonome complète est plus avancée et permet aux voitures de changer de voie, de reconnaître les panneaux d'arrêt et les feux, et de se garer, selon Tesla. L'entreprise ajoute qu'un « conducteur pleinement attentif » doit être au volant lorsque les deux fonctions sont utilisées.

    L’agence américaine de sécurité automobile a déclaré l’année dernière avoir ouvert une enquête sur l’accident mortel qui pourrait avoir été causé par son système avancé d'aide à la conduite. L'accident, impliquant une Tesla Model S modèle 2022 qui a percuté un équipement de construction à Newport Beach la semaine dernière, est l'un des 35 qui font l'objet d'une enquête de la National Highway Traffic Safety Administration (NHTSA) américaine impliquant des véhicules Tesla dans lesquels des systèmes avancés d'aide à la conduite comme Autopilot ont été soupçonnés d'être utilisés depuis 2016. Au total, 14 décès par accident ont été signalés dans le cadre de ces enquêtes sur Tesla, dont les trois décès récents.

    La NHTSA a confirmé la nouvelle enquête sur un accident de Tesla Model S survenu le 12 mai 2022, qui a tué trois personnes dans le véhicule et blessé trois travailleurs, lorsqu'il a heurté un équipement de construction le long de la Pacific Coast Highway à Newport Beach. La police de Newport Beach a refusé de dire si le véhicule Tesla était en mode Autopilot au moment de l'accident, précisant que l'enquête se poursuit.

    En juin, nous avons rapporté qu'il y avait eu au total 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. Steven Cliff, ancien administrateur adjoint de la NHTSA, a déclaré qu'il avait vu des données indiquant que les véhicules Tesla étaient impliqués dans « un nombre disproportionné d'accidents impliquant des véhicules d'urgence », mais que l'agence n'avait pas encore conclu si les conducteurs humains ou le logiciel de Tesla étaient à blâmer.

    Autopilot de Tesla : une hausse alarmante des accidents mortels

    Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie Full Self Driving qui est encore en bêta. Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2.

    Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.

    Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels.

    Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».

    Tesla et Musk sous le feu des critiques pour l’Autopilot trompeur

    En 2020, un sénateur américain a exhorté Tesla à renommer son système d'aide à la conduite Autopilot, affirmant qu'il a « un nom intrinsèquement trompeur » et qu'il est sujet à une utilisation potentiellement dangereuse. Le sénateur Edward Markey a déclaré qu'il pensait que les dangers potentiels d'Autopilot pouvaient être surmontés. Mais il a appelé à « renommer et commercialiser le système pour réduire les abus, ainsi qu'à créer des outils de surveillance des pilotes de sauvegarde qui garantiront que personne ne s'endort au volant ».

    Tesla a déclaré dans une lettre qu'il avait pris des mesures pour assurer l'engagement du conducteur avec le système et améliorer ses caractéristiques de sécurité. Le constructeur automobile électrique a introduit de nouveaux avertissements pour les feux rouges et les panneaux d'arrêt l'année dernière « pour minimiser le risque potentiel de griller un feu rouge ou un panneau Stop en raison d'une inattention temporaire du conducteur », a déclaré Tesla dans la lettre.

    Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

    Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.

    Tesla accusée de cacher les accidents liés à son Autopilot

    Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla.

    Depuis juin, la NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.

    Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.

    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.

    Source : New Yorker

    Et vous ?

    Quelles peuvent être les motivations de Tesla pour demander aux responsables de la sécurité routière de supprimer les informations concernant l’utilisation de ses logiciels d’aide à la conduite lors d’accidents ?

    En quoi Tesla se met-elle en danger sur le plan juridique et éthique en adoptant cette attitude ?

    Selon vous, Tesla participe-t-elle au progrès de la recherche et du développement sur les technologies de conduite autonome ?

    Voir aussi :

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

    Elon Musk indique qu'une « version entièrement autonome » d'Autopilot sera disponible pour Tesla en bêta privée, « probablement dans un mois »

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #32
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    March 2015
    Messages
    1 016
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : March 2015
    Messages : 1 016
    Points : 3 122
    Points
    3 122
    Par défaut
    Bis repetita

    Je ne suis même plus étonné, et presque plus révolté de lire ça.
    Supprimons les traces pour que ça n'existe plus.
    La méthode est redoutable et paye à long terme.

  13. #33
    Membre confirmé
    Inscrit en
    May 2008
    Messages
    172
    Détails du profil
    Informations forums :
    Inscription : May 2008
    Messages : 172
    Points : 472
    Points
    472
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

    Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
    Fallait oser. Musk l'a fait. Ils se foutent quand même de la gueule du monde! Exactement comme dans la série The Capture...

  14. #34
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 633
    Points : 32 315
    Points
    32 315
    Par défaut Elon Musk aurait voulu espionner les conducteurs pour défendre Tesla contre les poursuites judiciaires
    Elon Musk aurait voulu espionner les conducteurs pour défendre Tesla contre les poursuites judiciaires
    selon les révélations de Walter Isaacson

    La nouvelle biographie d’Elon Musk par Walter Isaacson est disponible et elle contient plusieurs révélations sur le passé, le présent et l’avenir de Tesla. L’une de ces révélations concerne l’utilisation potentielle de la caméra interne de surveillance des conducteurs dont sont équipées les Teslas actuelles. Dans cette biographie de Walter Isaacson sur Elon Musk, le PDG de Tesla a encouragé l’utilisation de la caméra interne de surveillance des conducteurs de Tesla pour enregistrer des vidéos du comportement des conducteurs. L’objectif principal était d’utiliser ces vidéos comme preuve pour se défendre contre les enquêtes en cas d’accident.

    Walter Isaacson est un auteur et biographe américain. Il est également le président directeur général d'Aspen Institute. Il a par le passé été PDG de CNN et directeur de la rédaction du magazine Time.

    Les caméras internes de surveillance des conducteurs sont présentes dans les Tesla actuelles et sont utilisées pour s’assurer que les conducteurs regardent toujours la route lorsque l’Autopilot ou le FSD (Full Self-Driving) sont activés. Cependant, il était également envisagé d’utiliser ces caméras pour la surveillance de l’habitacle si le projet de robotaxi de Tesla se concrétisait. Les Teslas sont équipées de ces caméras depuis de nombreuses années, d'abord sur la Model 3 en 2017, puis sur la S/X, mais elles n'ont été activées qu'en 2021. Avant cela, Tesla déterminait l'attention en détectant le couple du volant (une sécurité qu'il était assez facile de déjouer). Les autres constructeurs automobiles utilisent généralement des caméras infrarouges pour surveiller l’attention du conducteur, et les données ne quittent jamais la voiture. Les caméras internes de surveillance des conducteurs ont été installées dans les Tesla depuis plusieurs années, mais elles n’ont été activées qu’en 2021.

    Nom : Musk3B.png
Affichages : 1379
Taille : 284,5 Ko

    Aujourd'hui, la caméra est utilisée pour s'assurer que les conducteurs regardent toujours la route lorsque l'Autopilot ou le FSD sont activés, car ces deux systèmes sont des systèmes de conduite autonome de "niveau 2" et requièrent donc l'attention du conducteur. L'espoir, cependant, était d'utiliser potentiellement la caméra pour la surveillance de l'habitacle si le rêve de robotaxi de Tesla se réalisait un jour.

    Mais ce n'est pas la seule chose pour laquelle Tesla voulait utiliser les caméras. Selon la biographie, Musk a poussé en interne à utiliser la caméra pour enregistrer des clips des conducteurs de Tesla, initialement à leur insu, dans le but d'utiliser ces séquences pour défendre l'entreprise en cas d'enquêtes sur le comportement de son système Autopilot.

    Musk était convaincu que de mauvais conducteurs plutôt qu'un mauvais logiciel étaient la principale raison de la plupart des accidents. Lors d'une réunion, il a suggéré d'utiliser les données collectées par les caméras de la voiture - dont l'une se trouve à l'intérieur de la voiture et se concentre sur le conducteur - pour prouver qu'il y a eu une erreur du conducteur. L'une des femmes présentes à la table s'est opposée à cette idée. « Nous avons fait des allers-retours avec l'équipe chargée de la protection de la vie privée à ce sujet », a-t-elle déclaré. « Nous ne pouvons pas associer les flux de selfies à un véhicule spécifique, même en cas d'accident, ou du moins c'est ce que nous ont dit nos avocats ».

    La Society of Automotive Engineers a établi une classification de six niveaux d’automatisation de la conduite

    Autopilot et FSD sont des systèmes de "niveau 2". Il existe six niveaux de conduite autonome - de 0 à 5 - et les niveaux 0 à 2 exigent une conduite active à tout moment, tandis qu'avec les niveaux 3+, le conducteur peut détourner son attention de la route dans certaines circonstances.

    Niveau 0 (aucune automatisation de la conduite)

    La plupart des véhicules en circulation aujourd'hui sont de niveau 0 : ils sont contrôlés manuellement. L'homme assure la « tâche de conduite dynamique », même si des systèmes peuvent être mis en place pour aider le conducteur. Par exemple, le système de freinage d'urgence, qui, techniquement, ne « conduit» pas le véhicule, n'est pas considéré comme une automatisation.

    Niveau 1 (assistance au conducteur)

    Il s'agit du niveau d'automatisation le plus bas. Le véhicule est équipé d'un seul système automatisé d'aide à la conduite, comme la direction ou l'accélération (régulateur de vitesse). Le régulateur de vitesse adaptatif, qui permet de maintenir le véhicule à une distance de sécurité par rapport à la voiture suivante, relève du niveau 1, car le conducteur humain surveille les autres aspects de la conduite, comme la direction et le freinage.

    Niveau 2 (automatisation partielle de la conduite)

    Il s'agit des systèmes avancés d'aide à la conduite ou ADAS. Le véhicule peut contrôler à la fois la direction et l'accélération/décélération. Dans ce cas, l'automatisation ne va pas jusqu'à la conduite autonome, car un humain est assis à la place du conducteur et peut prendre le contrôle de la voiture à tout moment. Les systèmes Autopilot de Tesla et Super Cruise de Cadillac (General Motors) sont tous deux qualifiés de niveau 2.

    Niveau 3 (Automatisation conditionnelle de la conduite)

    Le saut du niveau 2 au niveau 3 est important d'un point de vue technologique, mais subtil, voire négligeable, d'un point de vue humain. Les véhicules de niveau 3 ont des capacités de « détection de l'environnement » et peuvent prendre eux-mêmes des décisions éclairées, comme accélérer pour dépasser un véhicule lent. Mais ils nécessitent toujours une intervention humaine. Le conducteur doit rester vigilant et prêt à prendre le contrôle si le système est incapable d'exécuter la tâche.

    Il y a presque deux ans, Audi (Volkswagen) a annoncé que la prochaine génération de la A8 - sa berline phare - serait le premier véhicule de niveau 3 de série au monde. Et ils ont tenu parole. L'Audi A8L 2019 arrive chez les concessionnaires commerciaux cet automne. Elle est équipée du Traffic Jam Pilot, qui combine un scanner lidar avec une fusion de capteurs et une puissance de traitement avancées (plus des redondances intégrées en cas de défaillance d'un composant).

    Cependant, pendant qu'Audi développait sa merveille d'ingénierie, le processus réglementaire aux États-Unis est passé d'une orientation fédérale à des mandats d'État par État pour les véhicules autonomes. Ainsi, pour l'instant, la A8L est toujours classée comme un véhicule de niveau 2 aux États-Unis et sera livrée sans le matériel et les logiciels clés nécessaires pour atteindre la fonctionnalité de niveau 3. En Europe, cependant, Audi lancera la A8L de niveau 3 complète avec le Traffic Jam Pilot (d'abord en Allemagne).

    Niveau 4 (automatisation poussée de la conduite)

    La principale différence entre l'automatisation de niveau 3 et de niveau 4 est que les véhicules de niveau 4 peuvent intervenir si les choses tournent mal ou s'il y a une défaillance du système. En ce sens, ces voitures ne nécessitent pas d'interaction humaine dans la plupart des circonstances. Toutefois, l'homme a toujours la possibilité de passer outre manuellement.

    Les véhicules de niveau 4 peuvent fonctionner en mode de conduite autonome. Mais jusqu'à ce que la législation et l'infrastructure évoluent, ils ne peuvent le faire que dans une zone limitée (généralement un environnement urbain où la vitesse de pointe atteint une moyenne de 30 mph). C'est ce qu'on appelle le géofencing. Ainsi, la plupart des véhicules de niveau 4 existants sont destinés au covoiturage.

    • NAVYA, une entreprise française, construit et vend déjà aux États-Unis des navettes et des taxis de niveau 4 qui fonctionnent entièrement à l'électricité et peuvent atteindre une vitesse maximale de 55 mph ;
    • Waymo, la société d'Alphabet, a récemment dévoilé un service de taxi à conduite autonome de niveau 4 en Arizona, où elle avait testé des voitures sans conducteur - sans conducteur de sécurité sur le siège - pendant plus d'un an et sur plus de 10 millions de kilomètres ;
    • L'équipementier automobile canadien Magna a développé une technologie (MAX4) pour permettre des capacités de niveau 4 dans des environnements urbains et autoroutiers. Il collabore avec Lyft pour fournir des kits de haute technologie qui transforment les véhicules en voitures à conduite autonome ;
    • Il y a quelques mois, Volvo et Baidu ont annoncé un partenariat stratégique pour développer conjointement des véhicules électriques de niveau 4 qui serviront le marché des robotaxis en Chine.

    Niveau 5 (automatisation complète de la conduite)

    Les véhicules de niveau 5 ne nécessitent pas l'attention de l'homme - la "tâche de conduite dynamique" est éliminée. Les voitures de niveau 5 n'auront même pas de volant ni de pédales d'accélération ou de freinage. Elles seront dépourvues de géofencing, capables d'aller partout et de faire tout ce qu'un conducteur humain expérimenté peut faire. Des voitures entièrement autonomes sont en cours d'essai dans plusieurs régions du monde, mais aucune n'est encore disponible pour le grand public.

    Bien que Tesla insiste sur le fait que les conducteurs doivent rester attentifs, une étude a montré que l'attention du conducteur diminue lorsque le système est activé.
    De nombreux exemples montrent des conducteurs de Tesla se comportant mal lorsque le système Autopilot est activé, bien que ces exemples flagrants ne soient pas entièrement le problème ici. Il y a eu de nombreux accidents de Tesla très médiatisés et, immédiatement après un incident, des rumeurs circulent souvent sur l'activation ou non de l'Autopilot. Qu'il y ait ou non des raisons de penser qu'il a été activé, les rapports des médias ou les médias sociaux se concentrent souvent sur l'Autopilot, ce qui donne au public l'impression, souvent injuste, qu'il existe un lien entre l'Autopilot et l'accident.

    Tesla demande à la NHTSA de garder confidentielles les informations sur les accidents

    Selon une enquête du New Yorker, Tesla a demandé à la NHTSA de ne pas révéler si ses logiciels d’aide à la conduite, Autopilot et Full Self-Driving, étaient impliqués dans des accidents de la route. Tesla a prétendu que ces informations étaient des secrets commerciaux, et la NHTSA a dû se plier à la loi sur la sécurité des véhicules qui protège la confidentialité des entreprises. L’enquête révèle les tensions entre Elon Musk, le PDG de Tesla, et le gouvernement américain, alors que les logiciels de Tesla font l’objet de controverses pour leur manque de fiabilité et de sécurité.

    « Tesla a demandé l'expurgation de champs du rapport d'accident en affirmant que ces champs contenaient des informations commerciales confidentielles », a déclaré un porte-parole de la NHTSA. « La loi sur la sécurité des véhicules limite explicitement la capacité de la NHTSA à divulguer ce que les entreprises qualifient d'informations confidentielles. Une fois qu'une entreprise revendique la confidentialité, la NHTSA est légalement obligée de la traiter comme telle, à moins que/jusqu'à ce que la NHTSA passe par une procédure juridique pour rejeter la revendication ».

    Tesla et la confidentialité des conducteurs : un débat sur l’équilibre entre sécurité et surveillance

    Pour Musk, non seulement ces accidents sont généralement de la faute des conducteurs, et comme dit précédemment, il souhaiterait que les caméras de l'habitacle soient utilisées pour espionner les conducteurs, dans le but spécifique de gagner les procès ou les enquêtes menées contre Tesla (comme l'enquête de la NHTSA). Il ne s'agit pas de renforcer la sécurité, ni de collecter des données pour améliorer le système, mais de protéger Tesla. Outre cette attitude discordant à l'égard de ses clients, la biographie suggère que son idée initiale était de collecter des informations sans en informer le conducteur, l'idée d'ajouter une fenêtre contextuelle sur la confidentialité des données n'étant apparue que plus tard dans la discussion.

    Lors d'un échange avec ses colloborateurs, Musk n'était pas content. Le concept d'« équipes de protection de la vie privée » ne lui a pas fait chaud au cœur. « Je suis le décideur dans cette entreprise, pas l'équipe chargée de la protection de la vie privée », aurait-il déclaré. « Je ne sais même pas qui ils sont. Ils sont tellement discrets qu'on ne sait jamais qui ils sont ». « Peut-être pourrions-nous avoir une fenêtre contextuelle où nous dirions aux gens que s'ils utilisent le Full Self-Driving, nous collecterons des données en cas d'accident », a-t-il suggéré. « Cela vous conviendrait-il ? »


    Ces dernières années et ces derniers mois, Musk a semblé de plus en plus distrait dans sa gestion de Tesla, se concentrant récemment beaucoup plus sur Twitter que sur l'entreprise qui l'a catapulté au sommet de la liste des personnes les plus riches du monde.

    En avril, il a été révélé que des employés de Tesla avaient partagé des vidéos enregistrées dans les garages de propriétaires, y compris des vidéos de personnes non vêtues et des vidéos contenant des informations personnelles identifiables. Dans l'Illinois, un autre recours collectif porte spécifiquement sur la caméra de l'habitacle. Bien que Tesla dispose d'une page dédiée décrivant son approche en matière de confidentialité des données, une nouvelle analyse indépendante publiée la semaine dernière par la Fondation Mozilla a classé Tesla à la dernière place parmi les marques automobiles - et a classé les voitures comme la pire catégorie de produits que Mozilla ait jamais vue en termes de confidentialité.

    Cependant, cette attitude de rejet sans ménagement des préoccupations de l’équipe chargée de la protection de la vie privée ne semble pas avoir été productive. Elon Musk est connu pour ses déclarations soudaines, exigeant l’ajout ou la suppression d’une fonctionnalité spécifique, même si cela va à l’encontre des conseils des ingénieurs, qu’il ait raison ou non dans sa décision.

    Source : Elon Musk biography by Walter Isaacson

    Et vous ?

    Quelles sont les implications éthiques de l’utilisation de la caméra interne de surveillance des conducteurs pour enregistrer des vidéos du comportement des conducteurs ?

    Dans quelle mesure l’utilisation de ces vidéos comme preuve pour se défendre contre les enquêtes en cas d’accident est-elle justifiée ?

    Quels sont les avantages et les inconvénients potentiels de l’utilisation de la caméra interne de surveillance des conducteurs dans les Tesla actuelles ?

    Voir aussi :

    Mercedes-Benz annonce que l'option de conduite autonome de niveau 3 est prête à être mise en œuvre, Drive Pilot coûtera 5 000 euros sur la Classe S et 7 430 euros sur l'EQS en Allemagne

    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/03/2021, 17h02
  2. Réponses: 6
    Dernier message: 08/06/2020, 21h06
  3. Réponses: 41
    Dernier message: 14/01/2019, 14h07
  4. Réponses: 3
    Dernier message: 23/06/2006, 11h03
  5. Réponses: 3
    Dernier message: 02/02/2006, 00h17

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo