IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 418
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 418
    Points : 4 757
    Points
    4 757
    Par défaut
    Citation Envoyé par smarties Voir le message
    Ca sera toujours le cas à mon avis tant que les véhicules ne sont pas capables de communiqués entre eux. Chaque constructeur automobile fait les choses dans son coin et c'est idiot.
    On cherche à reproduire une conduite humaine alors qu'il faudrait mettre en place une conduite interconnectée entre les véhicules.
    Et pour les vieux véhicules, mettre un boîtier qui permet de signaler aux véhicules autonomes leurs position et gabarit permettrait de faire de gros progrès.
    Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

    Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.

  2. #22
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 868
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 868
    Points : 5 955
    Points
    5 955
    Par défaut
    A la lecture de ce score déplorable, une seule question me vient à l'esprit:

    Comment se fait-il qu'aux USA, ce pays où le fabriquant de distributeur de boisson chaude doit imprimer sur ses gobelets en carton en toutes lettres "Attention, une boisson chaude peut occasionner des brulures en cas d'inattention de l'utilisateur... On décline toute responsabilité, blabla, blabla" pour s'éviter un procès qui va le condamner à des millions de dollars de dommages et intérêts, les aventures technologiques de Musk peuvent tuer des centaines de gens sans subir la moindre intervention d'un tribunal?

    Est-ce que Musk inonde les familles des victimes de millions pour les faire taire et éviter ainsi le dépôt de plaintes ou est-ce qu'il y a une loi "Musk" aux USA qui lui évite tout risque de condamnation?

  3. #23
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 310
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 310
    Points : 4 218
    Points
    4 218
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Non. Une voiture autonome doit être autonome et ne pas être dépendante ni d'un réseau de donnée, ni d'infrastructure serveur ni de véhicules annexes.

    Si la voiture devient connectée sur ses fonctions de conduites, alors elle devient la cible de hacking et c'est la fin de la sécurité, pas le début; c'est une vrai fausse bonne idée.
    En dehors du souci majeur de sécurité du système il y a que des avantages :
    - trafic plus fluide
    - réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
    - prédiction plus fiable des comportements

    La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).

    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.

  4. #24
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 418
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 418
    Points : 4 757
    Points
    4 757
    Par défaut
    Citation Envoyé par smarties Voir le message
    En dehors du souci majeur de sécurité du système il y a que des avantages :
    - trafic plus fluide
    Pas besoin de connecter les voitures autonome pour ça, avoir des IA qui prévoient plus tôt, décéllerent plus régulièrement et accéllere plus régulièrement suffit.
    Citation Envoyé par smarties Voir le message
    - réduction des distances de sécurité possible donc capacité du trafic augmentée... ça fonctionnerait aussi pour le ferroviaire
    Pas souhaitable du tout, si un seul hacker fait croire à un coup de frein quelque part, c'est carrambolage assuré. Trop risqué

    Citation Envoyé par smarties Voir le message
    - prédiction plus fiable des comportements
    Pas besoin de connecter les voitures pour ça.

    Citation Envoyé par smarties Voir le message
    La voiture est un moyen de se déplacer, conduire n'est pas toujours désiré (mais obligé pour se rendre au travail ou ailleurs quand cela est trop contraignant via d'autres moyens) (il y en a qui aiment conduire aussi mais je ne suis pas certain que le faire dans les bouchons soit plaisant)).
    Je suis d'accord avec toi, je vais clarifier ma position : Je suis pour les voitures autonomes, mais contres les voitures connectées. Et ça dans le cadre d'un process de développement logiciel aux qualités équivalente à ce qui existe dans l'avionique. Ce qui n'est pas le cas de Tesla qui est en permanence en mode "startup" avec un moto "Move fast, break things" qui prend un sens bien différent dans l'automobile!

    Citation Envoyé par smarties Voir le message
    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
    Pareil, pas souhaitable selon moi. Un hackeur pour faire croire à toutes les voitures d'un carrefour qu'elles ont le feu vert et encore une belle pile de bagnole en perspective.


    à combien de minute gagnée par an évalues-tu la vie de quelqu'un? D'autant plus si ces minutes seront moins "perdues" qu'auparavant : 100% des voyageurs pourront travailler dans la voiture, se reposer, se distraire....

    Il faut absolument que les voitures AUTONOMES soient AUTONOMES et se repose sur leur propres capteurs ET leurs propres capacité d'analyse d'info de leurs capteurs.

  5. #25
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 776
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 776
    Points : 7 223
    Points
    7 223
    Par défaut
    Citation Envoyé par smarties Voir le message
    De toute façon, on voit que dans la Sillicon Valley (et probablement dans d'autres pays) ils aménagent quelques carrefours pour communiquer avec des voitures "autonomes" afin de développer la technologie.
    Quand on voit les dégâts que peut occasionner un feu mal réglé, je ne m'appuierai pas trop sur cette technologie. Un exemple tout con, je rentrais du boulot au début des années 90. Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où la môme Piaf avait eu un accident en 1958. Manque de bol la temporisation entre les feux était mal réglée. Résultat : 2 morts un blessé grave. Et re manque de bol un avocat réputé de la région a été un des témoins du carton.

    Conclusion : 2 employés de la voirie ont fait de la prison pour homicide involontaire.
    Donc imaginons le moindre hack ou dysfonctionnement et ce sont des morts assurés.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  6. #26
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 310
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 310
    Points : 4 218
    Points
    4 218
    Par défaut
    Sur quoi peuvent s'appuyer les voitures autonomes pour savoir s'il y a des voitures qui se suivent devant soit ?
    En tant que conducteur, on peut faire un léger écart à gauche ou voir à travers les vitres des voitures devant mais avec une caméra c'est impossible et pour le radar je ne peux pas me prononcer (je ne connais pas assez le fonctionnement)

  7. #27
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 419
    Points : 9 923
    Points
    9 923
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Les pouvoirs publics avaient enfin décidé d'installer un feu au niveau du croisement de la nationale où était morte la môme Piaf.
    Qu'est-ce que tu racontes ? Edith PIAF est morte dans son lit à Grasse en 1963 !
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  8. #28
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 039
    Points
    58 039
    Par défaut Une nouvelle vidéo montre une Tesla en pilotage automatique percutant une voiture de police.
    Une nouvelle vidéo montre une Tesla en pilotage automatique percutant une voiture de police après avoir alerté le conducteur
    150 fois

    Un nouveau rapport montre les images de la caméra de surveillance de Tesla d'un accident violent où le véhicule percute une voiture de police arrêtée alors que l'Autopilot est activé. La vidéo montre à quel point l'Autopilot gère mal les véhicules d'urgence arrêtés et comment n'importe quel conducteur en état d'ébriété peut provoquer un tel accident. Les agents blessés sur les lieux accusent et poursuivent Tesla pour cet incident.

    La vidéo est l'une des nombreuses obtenues par le Wall Street Journal en lien avec une enquête de la National Highway Traffic Safety Administration (NHTSA). La NHTSA est une agence fédérale américaine des États-Unis chargée de la sécurité routière. Cette enquête dure depuis la mi-2021 et concerne la manière dont Autopilot gère les véhicules d'urgence arrêtés sur la route. À ce jour, il a été impliqué, sans être jugé fautif, dans au moins 16 accidents.


    Dans la vidéo principale, une Tesla Model X semble percuter une voiture de police arrêtée sans aucun avertissement. Si l'on creuse un peu plus les détails, les responsabilités deviennent beaucoup plus floues.

    Le WSJ a également obtenu des données de la Tesla impliquée dans l'accident, qui montrent de nombreux appels à plus d'attention de la part du conducteur. En fait, au moment où l'accident se produit, le système a alerté le conducteur pour qu'il soit plus attentif pas moins de 150 fois sur une période d'environ 45 minutes. Néanmoins, le système n'a pas reconnu un manque d'engagement au point de couper l'Autopilot.

    Au bout de 45 minutes, la Tesla percute une voiture de police arrêtée sur la voie de droite. Les données du système Autopilot montrent qu'il a reconnu la voiture arrêtée 37 mètres ou 2,5 secondes avant l'accident. Le système Autopilot ralentit également la voiture avant de la désengager complètement. Le film montre clairement que tout conducteur vigilant aurait reconnu la situation et changé de voie.

    Les policiers blessés dans l'accident poursuivent Tesla, et non le conducteur prétendument en état d'ébriété, à la suite de l'accident. Tesla affirme que la faute incombe au conducteur. Dans au moins un autre cas, c'est exactement ce qu'un tribunal a conclu. L'Autopilot semble avoir fonctionné exactement comme prévu et un conducteur en état d'ébriété n'a pas fait son travail derrière le volant ici.

    Et la réalité est que n'importe quel véhicule avec un régulateur de vitesse et un conducteur en état d'ébriété au volant aurait probablement percuté la voiture de police à une vitesse plus élevée. L'Autopilot est peut-être décrié pour son nom, mais les conducteurs sont en fin de compte responsables de la manière dont ils choisissent de piloter n'importe quelle voiture, y compris une Tesla.

    Source : Le Wall Street Journal

    Er vous ?

    Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?

    Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?

    Voir aussi :

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S

    La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving selon les données publiées par le gouvernement fédéral

    Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour

    Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures, le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #29
    Modérateur
    Avatar de sevyc64
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Janvier 2007
    Messages
    10 205
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Janvier 2007
    Messages : 10 205
    Points : 28 122
    Points
    28 122
    Par défaut
    Citation Envoyé par Nancy Rey Voir le message
    Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?
    Peut-être, mais je ne pense pas que ce soit juste un problème de nom. Je pense même que ce problème de nom est plutôt un épiphénomène.

    Le problème est plutôt que sous prétexte d'automatisme, les conducteurs se désengagent totalement de la conduite alors qu'ils ne maitrisent pas du tout l'outil.
    Il y a eu, de la même façon, il y a quelques années les affaires de régulateurs soit-disant bloqués. En réalité, ça toujours été des conducteurs qui n'ont pas su gérer cet outil dans une situation particulière.
    La situation typique concernant les régulateurs est, dans une situation de relative urgence, on désengage le régulateur et on appuie sur le frein en même temps. Hors de freiner désengage automatiquement le régulateur. Pour peu que le désengagement automatique se produise un 1/4 seconde avant le désengagement manuel, celui-ci devient en réalité un réengagement avec derrière, potentiellement, panique du conducteur et accusation de blocage.

    Citation Envoyé par Nancy Rey Voir le message
    Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
    Pour moi, oui.
    150 alertes en 45 minutes, l'autopilote aurait du réagir bien avant et stopper le véhicule !

    Concernant l'autopilote, peut-être faudrait-il, comme sur les trains, une fonction Homme-mort.
    Sur les trains, le conducteur, même en pilotage automatique, doit actionner un levier toutes les 180 secondes (si je me trompe pas dans le chiffre) au maximum. A la 181ème seconde sans action, le train déclenche automatiquement le freinage d'urgence et l'immobilisation de la trame sur la voie.
    --- Sevyc64 ---

    Parce que le partage est notre force, la connaissance sera notre victoire

  10. #30
    Candidat au Club
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juin 2012
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2012
    Messages : 3
    Points : 4
    Points
    4
    Par défaut L'avis d'un utilisateur
    Je me suis poser la question de : si j'ai un malaise en conduisant la model 3 comment va réagir le véhicule ?
    Souvent j'ai constaté que juste avant une situation dangereuse , le régulateur et maintient dans la voie se desengagent 1s avant . Je trouve que c'est une faute de Tesla. Dans le sens que même si le conducteur dort au volant , le véhicule devrait mettre les feux de détresse et ralentir le véhicule. Dans l'exemple de l'article. Le freinage d'urgence aurait dû fonctionner. Bien le conducteur a sa part de faute, Tesla aussi fautif car la désactivation de l'auto-pilote est mal fait. Normalement il y a le freinage d'urgence et d'autres systèmes d'évitement d'obstacle tout le temps actif?
    Je rappelle aussi que 150 demande de vigilance c'est normal, il n'y a pas de de volant capacitif pour détecter si le conducteur tiens le volant , donc le système demande régulièrement de manifester sa présence en bougeant légèrement le volant .

  11. #31
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 220
    Points
    37 220
    Par défaut Tesla aurait demandé à la NHTSA d’expurger les informations sur son logiciel lors d’accidents
    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite,
    lors d'accidents

    Selon une enquête du New Yorker, Tesla a demandé à la National Highway Traffic Safety Administration de ne pas révéler si ses logiciels d’aide à la conduite, Autopilot et Full Self-Driving, étaient impliqués dans des accidents de la route. Tesla a prétendu que ces informations étaient des secrets commerciaux, et la NHTSA a dû se plier à la loi sur la sécurité des véhicules qui protège la confidentialité des entreprises. L’enquête révèle les tensions entre Elon Musk, le PDG de Tesla, et le gouvernement américain, alors que les logiciels de Tesla font l’objet de controverses pour leur manque de fiabilité et de sécurité.

    « Tesla a demandé l'expurgation de champs du rapport d'accident en affirmant que ces champs contenaient des informations commerciales confidentielles », a déclaré un porte-parole de la NHTSA. « La loi sur la sécurité des véhicules limite explicitement la capacité de la NHTSA à divulguer ce que les entreprises qualifient d'informations confidentielles. Une fois qu'une entreprise revendique la confidentialité, la NHTSA est légalement obligée de la traiter comme telle, à moins que/jusqu'à ce que la NHTSA passe par une procédure juridique pour rejeter la revendication ».

    Nom : Tesla.jpg
Affichages : 2062
Taille : 30,4 Ko

    Alors que Musk promet depuis des années que les Teslas à conduite autonome sont sur le point de voir le jour, les systèmes Autopilot et Full Self-Driving de Tesla ont essuyé un certain nombre de controverses au fil des ans.

    Autopilot, qui est censé aider sur les autoroutes, est le logiciel d'aide à la conduite intégré dans toutes les Teslas, tandis que Full Self-Driving est un ajout bêta qui coûte 15 000 dollars en une seule fois, ou des frais mensuels de 99 ou 199 dollars, en fonction des spécificités de la mise à jour. La conduite autonome complète est plus avancée et permet aux voitures de changer de voie, de reconnaître les panneaux d'arrêt et les feux, et de se garer, selon Tesla. L'entreprise ajoute qu'un « conducteur pleinement attentif » doit être au volant lorsque les deux fonctions sont utilisées.

    L’agence américaine de sécurité automobile a déclaré l’année dernière avoir ouvert une enquête sur l’accident mortel qui pourrait avoir été causé par son système avancé d'aide à la conduite. L'accident, impliquant une Tesla Model S modèle 2022 qui a percuté un équipement de construction à Newport Beach la semaine dernière, est l'un des 35 qui font l'objet d'une enquête de la National Highway Traffic Safety Administration (NHTSA) américaine impliquant des véhicules Tesla dans lesquels des systèmes avancés d'aide à la conduite comme Autopilot ont été soupçonnés d'être utilisés depuis 2016. Au total, 14 décès par accident ont été signalés dans le cadre de ces enquêtes sur Tesla, dont les trois décès récents.

    La NHTSA a confirmé la nouvelle enquête sur un accident de Tesla Model S survenu le 12 mai 2022, qui a tué trois personnes dans le véhicule et blessé trois travailleurs, lorsqu'il a heurté un équipement de construction le long de la Pacific Coast Highway à Newport Beach. La police de Newport Beach a refusé de dire si le véhicule Tesla était en mode Autopilot au moment de l'accident, précisant que l'enquête se poursuit.

    En juin, nous avons rapporté qu'il y avait eu au total 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. Steven Cliff, ancien administrateur adjoint de la NHTSA, a déclaré qu'il avait vu des données indiquant que les véhicules Tesla étaient impliqués dans « un nombre disproportionné d'accidents impliquant des véhicules d'urgence », mais que l'agence n'avait pas encore conclu si les conducteurs humains ou le logiciel de Tesla étaient à blâmer.

    Autopilot de Tesla : une hausse alarmante des accidents mortels

    Un expert en sécurité estime que l’augmentation est probablement liée au déploiement élargi de la technologie Full Self Driving qui est encore en bêta. Le nombre de décès et de blessures graves associés à Autopilot a augmenté de manière significative, selon les données publiées par la NHTSA (National Highway Traffic Safety Administration, l'agence fédérale américaine des États-Unis chargée de la sécurité routière). Il faut préciser que, depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA si l'un de leurs véhicules est impliqué dans un accident alors qu'ils utilisent des systèmes de conduite partiellement automatisés, également appelés systèmes SAE de niveau 2.

    Comme beaucoup le soupçonnaient, le système Autopilot de Tesla était à l'origine de la majorité des accidents depuis le début de la période de référence. En fait, Tesla représentait les trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés entre juillet 2021 et le 15 mai 2022.

    Mais ce n'est pas tout. Sur les six décès répertoriés dans l'ensemble de données publié par la NHTSA en juin 2022, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019. Les données les plus récentes de l'agence américaine incluent au moins 17 incidents mortels.

    Ces données sont plutôt limitées étant donné qu'elles concernent le marché américain. Le site Tesla Deaths, quant à lui, fournit une perspective plus globale. Il est expliqué : « Nous fournissons un registre mis à jour des décès par Tesla et des décès par accident de Tesla qui ont été signalés et autant de données d'accident connexes que possible (par exemple, lieu de l'accident, noms des personnes décédées, etc.) ».

    Tesla et Musk sous le feu des critiques pour l’Autopilot trompeur

    En 2020, un sénateur américain a exhorté Tesla à renommer son système d'aide à la conduite Autopilot, affirmant qu'il a « un nom intrinsèquement trompeur » et qu'il est sujet à une utilisation potentiellement dangereuse. Le sénateur Edward Markey a déclaré qu'il pensait que les dangers potentiels d'Autopilot pouvaient être surmontés. Mais il a appelé à « renommer et commercialiser le système pour réduire les abus, ainsi qu'à créer des outils de surveillance des pilotes de sauvegarde qui garantiront que personne ne s'endort au volant ».

    Tesla a déclaré dans une lettre qu'il avait pris des mesures pour assurer l'engagement du conducteur avec le système et améliorer ses caractéristiques de sécurité. Le constructeur automobile électrique a introduit de nouveaux avertissements pour les feux rouges et les panneaux d'arrêt l'année dernière « pour minimiser le risque potentiel de griller un feu rouge ou un panneau Stop en raison d'une inattention temporaire du conducteur », a déclaré Tesla dans la lettre.

    Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

    Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.

    Tesla accusée de cacher les accidents liés à son Autopilot

    Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla.

    Depuis juin, la NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.

    Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.

    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.

    Source : New Yorker

    Et vous ?

    Quelles peuvent être les motivations de Tesla pour demander aux responsables de la sécurité routière de supprimer les informations concernant l’utilisation de ses logiciels d’aide à la conduite lors d’accidents ?

    En quoi Tesla se met-elle en danger sur le plan juridique et éthique en adoptant cette attitude ?

    Selon vous, Tesla participe-t-elle au progrès de la recherche et du développement sur les technologies de conduite autonome ?

    Voir aussi :

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

    Elon Musk indique qu'une « version entièrement autonome » d'Autopilot sera disponible pour Tesla en bêta privée, « probablement dans un mois »

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #32
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 635
    Points
    3 635
    Par défaut
    Bis repetita

    Je ne suis même plus étonné, et presque plus révolté de lire ça.
    Supprimons les traces pour que ça n'existe plus.
    La méthode est redoutable et paye à long terme.

  13. #33
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    178
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 178
    Points : 493
    Points
    493
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

    Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
    Fallait oser. Musk l'a fait. Ils se foutent quand même de la gueule du monde! Exactement comme dans la série The Capture...

  14. #34
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 220
    Points
    37 220
    Par défaut Elon Musk aurait voulu espionner les conducteurs pour défendre Tesla contre les poursuites judiciaires
    Elon Musk aurait voulu espionner les conducteurs pour défendre Tesla contre les poursuites judiciaires
    selon les révélations de Walter Isaacson

    La nouvelle biographie d’Elon Musk par Walter Isaacson est disponible et elle contient plusieurs révélations sur le passé, le présent et l’avenir de Tesla. L’une de ces révélations concerne l’utilisation potentielle de la caméra interne de surveillance des conducteurs dont sont équipées les Teslas actuelles. Dans cette biographie de Walter Isaacson sur Elon Musk, le PDG de Tesla a encouragé l’utilisation de la caméra interne de surveillance des conducteurs de Tesla pour enregistrer des vidéos du comportement des conducteurs. L’objectif principal était d’utiliser ces vidéos comme preuve pour se défendre contre les enquêtes en cas d’accident.

    Walter Isaacson est un auteur et biographe américain. Il est également le président directeur général d'Aspen Institute. Il a par le passé été PDG de CNN et directeur de la rédaction du magazine Time.

    Les caméras internes de surveillance des conducteurs sont présentes dans les Tesla actuelles et sont utilisées pour s’assurer que les conducteurs regardent toujours la route lorsque l’Autopilot ou le FSD (Full Self-Driving) sont activés. Cependant, il était également envisagé d’utiliser ces caméras pour la surveillance de l’habitacle si le projet de robotaxi de Tesla se concrétisait. Les Teslas sont équipées de ces caméras depuis de nombreuses années, d'abord sur la Model 3 en 2017, puis sur la S/X, mais elles n'ont été activées qu'en 2021. Avant cela, Tesla déterminait l'attention en détectant le couple du volant (une sécurité qu'il était assez facile de déjouer). Les autres constructeurs automobiles utilisent généralement des caméras infrarouges pour surveiller l’attention du conducteur, et les données ne quittent jamais la voiture. Les caméras internes de surveillance des conducteurs ont été installées dans les Tesla depuis plusieurs années, mais elles n’ont été activées qu’en 2021.

    Nom : Musk3B.png
Affichages : 2342
Taille : 284,5 Ko

    Aujourd'hui, la caméra est utilisée pour s'assurer que les conducteurs regardent toujours la route lorsque l'Autopilot ou le FSD sont activés, car ces deux systèmes sont des systèmes de conduite autonome de "niveau 2" et requièrent donc l'attention du conducteur. L'espoir, cependant, était d'utiliser potentiellement la caméra pour la surveillance de l'habitacle si le rêve de robotaxi de Tesla se réalisait un jour.

    Mais ce n'est pas la seule chose pour laquelle Tesla voulait utiliser les caméras. Selon la biographie, Musk a poussé en interne à utiliser la caméra pour enregistrer des clips des conducteurs de Tesla, initialement à leur insu, dans le but d'utiliser ces séquences pour défendre l'entreprise en cas d'enquêtes sur le comportement de son système Autopilot.

    Musk était convaincu que de mauvais conducteurs plutôt qu'un mauvais logiciel étaient la principale raison de la plupart des accidents. Lors d'une réunion, il a suggéré d'utiliser les données collectées par les caméras de la voiture - dont l'une se trouve à l'intérieur de la voiture et se concentre sur le conducteur - pour prouver qu'il y a eu une erreur du conducteur. L'une des femmes présentes à la table s'est opposée à cette idée. « Nous avons fait des allers-retours avec l'équipe chargée de la protection de la vie privée à ce sujet », a-t-elle déclaré. « Nous ne pouvons pas associer les flux de selfies à un véhicule spécifique, même en cas d'accident, ou du moins c'est ce que nous ont dit nos avocats ».

    La Society of Automotive Engineers a établi une classification de six niveaux d’automatisation de la conduite

    Autopilot et FSD sont des systèmes de "niveau 2". Il existe six niveaux de conduite autonome - de 0 à 5 - et les niveaux 0 à 2 exigent une conduite active à tout moment, tandis qu'avec les niveaux 3+, le conducteur peut détourner son attention de la route dans certaines circonstances.

    Niveau 0 (aucune automatisation de la conduite)

    La plupart des véhicules en circulation aujourd'hui sont de niveau 0 : ils sont contrôlés manuellement. L'homme assure la « tâche de conduite dynamique », même si des systèmes peuvent être mis en place pour aider le conducteur. Par exemple, le système de freinage d'urgence, qui, techniquement, ne « conduit» pas le véhicule, n'est pas considéré comme une automatisation.

    Niveau 1 (assistance au conducteur)

    Il s'agit du niveau d'automatisation le plus bas. Le véhicule est équipé d'un seul système automatisé d'aide à la conduite, comme la direction ou l'accélération (régulateur de vitesse). Le régulateur de vitesse adaptatif, qui permet de maintenir le véhicule à une distance de sécurité par rapport à la voiture suivante, relève du niveau 1, car le conducteur humain surveille les autres aspects de la conduite, comme la direction et le freinage.

    Niveau 2 (automatisation partielle de la conduite)

    Il s'agit des systèmes avancés d'aide à la conduite ou ADAS. Le véhicule peut contrôler à la fois la direction et l'accélération/décélération. Dans ce cas, l'automatisation ne va pas jusqu'à la conduite autonome, car un humain est assis à la place du conducteur et peut prendre le contrôle de la voiture à tout moment. Les systèmes Autopilot de Tesla et Super Cruise de Cadillac (General Motors) sont tous deux qualifiés de niveau 2.

    Niveau 3 (Automatisation conditionnelle de la conduite)

    Le saut du niveau 2 au niveau 3 est important d'un point de vue technologique, mais subtil, voire négligeable, d'un point de vue humain. Les véhicules de niveau 3 ont des capacités de « détection de l'environnement » et peuvent prendre eux-mêmes des décisions éclairées, comme accélérer pour dépasser un véhicule lent. Mais ils nécessitent toujours une intervention humaine. Le conducteur doit rester vigilant et prêt à prendre le contrôle si le système est incapable d'exécuter la tâche.

    Il y a presque deux ans, Audi (Volkswagen) a annoncé que la prochaine génération de la A8 - sa berline phare - serait le premier véhicule de niveau 3 de série au monde. Et ils ont tenu parole. L'Audi A8L 2019 arrive chez les concessionnaires commerciaux cet automne. Elle est équipée du Traffic Jam Pilot, qui combine un scanner lidar avec une fusion de capteurs et une puissance de traitement avancées (plus des redondances intégrées en cas de défaillance d'un composant).

    Cependant, pendant qu'Audi développait sa merveille d'ingénierie, le processus réglementaire aux États-Unis est passé d'une orientation fédérale à des mandats d'État par État pour les véhicules autonomes. Ainsi, pour l'instant, la A8L est toujours classée comme un véhicule de niveau 2 aux États-Unis et sera livrée sans le matériel et les logiciels clés nécessaires pour atteindre la fonctionnalité de niveau 3. En Europe, cependant, Audi lancera la A8L de niveau 3 complète avec le Traffic Jam Pilot (d'abord en Allemagne).

    Niveau 4 (automatisation poussée de la conduite)

    La principale différence entre l'automatisation de niveau 3 et de niveau 4 est que les véhicules de niveau 4 peuvent intervenir si les choses tournent mal ou s'il y a une défaillance du système. En ce sens, ces voitures ne nécessitent pas d'interaction humaine dans la plupart des circonstances. Toutefois, l'homme a toujours la possibilité de passer outre manuellement.

    Les véhicules de niveau 4 peuvent fonctionner en mode de conduite autonome. Mais jusqu'à ce que la législation et l'infrastructure évoluent, ils ne peuvent le faire que dans une zone limitée (généralement un environnement urbain où la vitesse de pointe atteint une moyenne de 30 mph). C'est ce qu'on appelle le géofencing. Ainsi, la plupart des véhicules de niveau 4 existants sont destinés au covoiturage.

    • NAVYA, une entreprise française, construit et vend déjà aux États-Unis des navettes et des taxis de niveau 4 qui fonctionnent entièrement à l'électricité et peuvent atteindre une vitesse maximale de 55 mph ;
    • Waymo, la société d'Alphabet, a récemment dévoilé un service de taxi à conduite autonome de niveau 4 en Arizona, où elle avait testé des voitures sans conducteur - sans conducteur de sécurité sur le siège - pendant plus d'un an et sur plus de 10 millions de kilomètres ;
    • L'équipementier automobile canadien Magna a développé une technologie (MAX4) pour permettre des capacités de niveau 4 dans des environnements urbains et autoroutiers. Il collabore avec Lyft pour fournir des kits de haute technologie qui transforment les véhicules en voitures à conduite autonome ;
    • Il y a quelques mois, Volvo et Baidu ont annoncé un partenariat stratégique pour développer conjointement des véhicules électriques de niveau 4 qui serviront le marché des robotaxis en Chine.

    Niveau 5 (automatisation complète de la conduite)

    Les véhicules de niveau 5 ne nécessitent pas l'attention de l'homme - la "tâche de conduite dynamique" est éliminée. Les voitures de niveau 5 n'auront même pas de volant ni de pédales d'accélération ou de freinage. Elles seront dépourvues de géofencing, capables d'aller partout et de faire tout ce qu'un conducteur humain expérimenté peut faire. Des voitures entièrement autonomes sont en cours d'essai dans plusieurs régions du monde, mais aucune n'est encore disponible pour le grand public.

    Bien que Tesla insiste sur le fait que les conducteurs doivent rester attentifs, une étude a montré que l'attention du conducteur diminue lorsque le système est activé.
    De nombreux exemples montrent des conducteurs de Tesla se comportant mal lorsque le système Autopilot est activé, bien que ces exemples flagrants ne soient pas entièrement le problème ici. Il y a eu de nombreux accidents de Tesla très médiatisés et, immédiatement après un incident, des rumeurs circulent souvent sur l'activation ou non de l'Autopilot. Qu'il y ait ou non des raisons de penser qu'il a été activé, les rapports des médias ou les médias sociaux se concentrent souvent sur l'Autopilot, ce qui donne au public l'impression, souvent injuste, qu'il existe un lien entre l'Autopilot et l'accident.

    Tesla demande à la NHTSA de garder confidentielles les informations sur les accidents

    Selon une enquête du New Yorker, Tesla a demandé à la NHTSA de ne pas révéler si ses logiciels d’aide à la conduite, Autopilot et Full Self-Driving, étaient impliqués dans des accidents de la route. Tesla a prétendu que ces informations étaient des secrets commerciaux, et la NHTSA a dû se plier à la loi sur la sécurité des véhicules qui protège la confidentialité des entreprises. L’enquête révèle les tensions entre Elon Musk, le PDG de Tesla, et le gouvernement américain, alors que les logiciels de Tesla font l’objet de controverses pour leur manque de fiabilité et de sécurité.

    « Tesla a demandé l'expurgation de champs du rapport d'accident en affirmant que ces champs contenaient des informations commerciales confidentielles », a déclaré un porte-parole de la NHTSA. « La loi sur la sécurité des véhicules limite explicitement la capacité de la NHTSA à divulguer ce que les entreprises qualifient d'informations confidentielles. Une fois qu'une entreprise revendique la confidentialité, la NHTSA est légalement obligée de la traiter comme telle, à moins que/jusqu'à ce que la NHTSA passe par une procédure juridique pour rejeter la revendication ».

    Tesla et la confidentialité des conducteurs : un débat sur l’équilibre entre sécurité et surveillance

    Pour Musk, non seulement ces accidents sont généralement de la faute des conducteurs, et comme dit précédemment, il souhaiterait que les caméras de l'habitacle soient utilisées pour espionner les conducteurs, dans le but spécifique de gagner les procès ou les enquêtes menées contre Tesla (comme l'enquête de la NHTSA). Il ne s'agit pas de renforcer la sécurité, ni de collecter des données pour améliorer le système, mais de protéger Tesla. Outre cette attitude discordant à l'égard de ses clients, la biographie suggère que son idée initiale était de collecter des informations sans en informer le conducteur, l'idée d'ajouter une fenêtre contextuelle sur la confidentialité des données n'étant apparue que plus tard dans la discussion.

    Lors d'un échange avec ses colloborateurs, Musk n'était pas content. Le concept d'« équipes de protection de la vie privée » ne lui a pas fait chaud au cœur. « Je suis le décideur dans cette entreprise, pas l'équipe chargée de la protection de la vie privée », aurait-il déclaré. « Je ne sais même pas qui ils sont. Ils sont tellement discrets qu'on ne sait jamais qui ils sont ». « Peut-être pourrions-nous avoir une fenêtre contextuelle où nous dirions aux gens que s'ils utilisent le Full Self-Driving, nous collecterons des données en cas d'accident », a-t-il suggéré. « Cela vous conviendrait-il ? »


    Ces dernières années et ces derniers mois, Musk a semblé de plus en plus distrait dans sa gestion de Tesla, se concentrant récemment beaucoup plus sur Twitter que sur l'entreprise qui l'a catapulté au sommet de la liste des personnes les plus riches du monde.

    En avril, il a été révélé que des employés de Tesla avaient partagé des vidéos enregistrées dans les garages de propriétaires, y compris des vidéos de personnes non vêtues et des vidéos contenant des informations personnelles identifiables. Dans l'Illinois, un autre recours collectif porte spécifiquement sur la caméra de l'habitacle. Bien que Tesla dispose d'une page dédiée décrivant son approche en matière de confidentialité des données, une nouvelle analyse indépendante publiée la semaine dernière par la Fondation Mozilla a classé Tesla à la dernière place parmi les marques automobiles - et a classé les voitures comme la pire catégorie de produits que Mozilla ait jamais vue en termes de confidentialité.

    Cependant, cette attitude de rejet sans ménagement des préoccupations de l’équipe chargée de la protection de la vie privée ne semble pas avoir été productive. Elon Musk est connu pour ses déclarations soudaines, exigeant l’ajout ou la suppression d’une fonctionnalité spécifique, même si cela va à l’encontre des conseils des ingénieurs, qu’il ait raison ou non dans sa décision.

    Source : Elon Musk biography by Walter Isaacson

    Et vous ?

    Quelles sont les implications éthiques de l’utilisation de la caméra interne de surveillance des conducteurs pour enregistrer des vidéos du comportement des conducteurs ?

    Dans quelle mesure l’utilisation de ces vidéos comme preuve pour se défendre contre les enquêtes en cas d’accident est-elle justifiée ?

    Quels sont les avantages et les inconvénients potentiels de l’utilisation de la caméra interne de surveillance des conducteurs dans les Tesla actuelles ?

    Voir aussi :

    Mercedes-Benz annonce que l'option de conduite autonome de niveau 3 est prête à être mise en œuvre, Drive Pilot coûtera 5 000 euros sur la Classe S et 7 430 euros sur l'EQS en Allemagne

    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents

    Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #35
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Des vidéos virales montrent des conducteurs de Tesla utilisant des casques RV tout en étant au volant
    Des vidéos virales montrent des conducteurs de Tesla utilisant des casques RV et semblant faire des gestes avec leurs mains pour interagir avec un champ RV
    ce qui inquiète le gouvernement américain

    Les propriétaires de Tesla sont toujours en proie à une confiance excessive dans la technologie de conduite autonome de l'entreprise. Certains vont même jusqu'à porter un casque de réalité virtuelle (RV) pendant la conduite. Des vidéos devenues virales aux États-Unis montrent des conducteurs de Tesla utilisant des casques de réalité virtuelle et semblant faire des gestes avec leurs mains pour interagir avec un champ de réalité virtuelle. Ce comportement constitue un danger pour les autres usagers de la route, car la technologie de Tesla est connue pour ses nombreuses défaillances. Le gouvernement fédéral américain a publié un communiqué pour exprimer son inquiétude.

    Les habitudes des conducteurs de véhicules Tesla sont très controversées. Les propriétaires de Tesla pensent à tort que leurs voitures sont dotées d'une technologie de conduite autonome efficace et s'abandonnent au système Autopilot de l'entreprise. Cependant, le système d'aide à la conduite autonome Autopilot de Tesla, ainsi que sa version avancée appelée Full Self-Driving (FSD), souffre de nombreuses défaillances connues. L'on a dénombré au fil des ans des centaines d'accidents, parfois mortels, dus à l'inattention au volant des conducteurs de Tesla et dans lesquels l'Autopilot (ou encore le Full Self-Driving) était impliqué.

    Récemment, les conducteurs de Tesla semblent avoir développé une nouvelle habitude dangereuse pour tous les usagers de la route : utiliser un casque de réalité virtuelle pendant la conduite. Le scénario peut sembler déroutant à première vue, mais des vidéos montrent des conducteurs de Tesla portant des casques de réalité virtuelle. Dans les vidéos, l'on peut voir des conducteurs qui semblent faire des gestes avec leurs mains pour interagir avec un champ de réalité virtuelle, alors que le véhicule est en mouvement. Cela suppose que la conduite est assurée à ce moment-là par le logiciel controversé Autopilot de Tesla.

    Une vidéo, qui a été visionnée plus de 24 millions de fois, montre un conducteur de Tesla Cybertruck en train d'utiliser ce qui semble être le casque Vision Pro récemment lancé par Apple. Lundi, le ministre américain des Transports, Pete Buttigieg, a réagi à cette vidéo, affirmant qu'il est nécessaire que les conducteurs gardent le contrôle de leur véhicule et se concentrent sur la route. Il a souligné que malgré les progrès des systèmes d'aide à la conduite, la surveillance humaine reste essentielle pour une conduite sûre. Les remarques de Buttigieg font écho à ses récentes préoccupations à l'égard du système Autopilot de Tesla.

    « Malgré leur nom, les fonctions d'aide à la conduite de Tesla - Autopilot, Enhanced Autopilot et Full Self-Driving - ne signifient pas que les véhicules sont entièrement autonomes. Rappel : tous les systèmes avancés d'aide à la conduite disponibles aujourd'hui nécessitent que le conducteur humain soit aux commandes et soit pleinement engagé dans la tâche de conduite à tout moment », a-t-il déclaré. Il souligne la nécessité d'adopter des pratiques de conduite responsables, en particulier dans le contexte des technologies émergentes qui peuvent constituer des distractions ou des risques pour la sécurité sur la route.

    Le casque Vision Pro d'Apple fusionne des éléments numériques tridimensionnels (3D) avec des images du monde réel. Bien qu'Apple déconseille explicitement l'utilisation de l'appareil au volant, mais l'entreprise s'est abstenue de tout commentaire immédiat lorsqu'elle a été contactée à ce sujet. « Apple Vision Pro s'appuie uniquement sur les yeux, les mains et la voix. Vous naviguez dans le système simplement en regardant. Les icônes des applications prennent vie lorsque vous les regardez. Il vous suffit de toucher avec vos doigts pour les sélectionner et de les effleurer pour les faire défiler », a déclaré Apple en juin.

    Tim Cook, PDG d'Apple, a ajouté : « Apple Vision Pro va changer notre façon de communiquer, de collaborer, de travailler et de nous divertir ». Toutefois, l'entreprise n'a jamais eu l'intention de changer la façon dont les gens se déplacent avec le Vision Pro. Pour sa part, Tesla a toujours affirmé que ses fonctions de conduite avancées sont conçues pour être utilisées avec un conducteur attentif qui est prêt à prendre le contrôle si nécessaire. Comme d'habitude, le constructeur automobile n'a pas répondu aux demandes de commentaires sur les vidéos virales qui ont suscité la réaction des fonctionnaires de Washington.

    Malgré les déclarations de Tesla, l'entreprise est accusée de publicité mensongère en raison des noms Autopilot et Full Self-Driving. L'année dernière, Tesla a été condamné à une amende de deux millions d'euros en Corée du Sud pour publicité mensongère, accusant la société d'avoir faussement promu et exagéré l'autonomie et la vitesse de recharge de ses voitures électriques. En décembre 2022, la Californie a adopté une loi qui interdit à Tesla d'appeler ses systèmes d'aide à la conduite autonome Autopilot et Full Self-Driving, car il s'agit d'une publicité mensongère qui laisse croire qu'ils sont totalement autonomes.

    « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », indique la réglementation californienne.

    Toutefois, Tesla réfute les accusations de publicité mensongère et s'oppose aux tentatives visant à le forcer à changer le nom des systèmes Autopilot et Full Self-Driving. L’automatisation présente dans les véhicules disponibles à l’achat aujourd’hui est considérée comme étant de niveau 1 ou de niveau 2. Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine et dans toutes les conditions.

    Elon Musk, PDG de Tesla, promet "l'arrivée imminente" de la conduite autonome depuis une décennie, mais l'on attend toujours et ses systèmes Autopilot et Full Self-Driving sont sujets à de nombreux problèmes. Entre-temps, le PDG de Cruise, la division de General Motors qui développe des technologies de conduite autonome, a déclaré qu'il est peu probable que l’on obtienne un jour des véhicules véritablement autonomes à 100 %. L'année 2023 a été une année chaotique pour Cruise, avec des scandales liés à des accidents et l'arrêt complet de sa flotte de véhicules autonomes par les autorités de San Francisco.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du port d'un casque de réalité virtuelle au volant ?
    Selon vous, à quoi rime ce nouveau comportement des conducteurs de Tesla ?
    Pourquoi les conducteurs de Tesla ignorent-ils les mises en garde sur les systèmes de Tesla ?

    Voir aussi

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Tesla ferait l'objet d'une enquête du procureur général de Californie sur la sécurité de l'Autopilot et la publicité autour du logiciel, plusieurs clients accusent la société de publicité mensongère

    La Californie adopte une loi qui interdit à Tesla d'appeler le logiciel de ses véhicules Full Self-Driving, car c'est de la publicité mensongère qui laisse croire qu'ils sont totalement autonomes

  16. #36
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 163
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 163
    Points : 81 371
    Points
    81 371
    Par défaut Le Dawn Project appelle au boycott de Tesla dans une campagne publicitaire au Super Bowl
    Le Dawn Project appelle au boycott de Tesla dans une campagne publicitaire au Super Bowl, reprochant à Tesla de ne pas désactiver sa technologie Autopilot en dehors des conditions de sa conception.

    Un entrepreneur technologique californien paie plus d'un demi-million de dollars pour des publicités du Super Bowl critiquant Tesla pour ne pas avoir désactivé sa technologie Autopilot en dehors des conditions pour lesquelles elle a été conçue, un problème mis en évidence par une enquête du Washington Post et cité plus tard dans un rappel de toutes les Tesla équipées de l'Autopilot, soit environ 2 millions de véhicules.

    C'est la deuxième année consécutive que Dan O'Dowd, détracteur de Tesla, mène une campagne publicitaire lors de la soirée la plus importante de la télévision. Il dirige le Dawn Project, un groupe qui a demandé l'interdiction de la technologie d'assistance à la conduite de Tesla. La dernière campagne est sans équivoque : "Boycottez Tesla", peut-on y lire, après avoir vu des images d'accidents graves et mortels impliquant ses véhicules. L'une des publicités montre des Teslas écrasant des mannequins de la taille d'un enfant, des images qui ont déjà conduit Tesla à envoyer une lettre de cessation et de désistement.

    M. O'Dowd a déclaré qu'il avait été contraint d'attirer l'attention sur le dernier problème lié à ce qu'il appelle "le logiciel le plus incompétent que j'aie jamais vu", en partie à cause de l'enquête du Post. M. O'Dowd a fondé Green Hills Software, qui fabrique des systèmes d'exploitation pour les voitures et les avions. "Quelle est la raison possible pour laquelle ils ne désactivent pas Autopilot sur les routes qu'ils disent ne pas être sûres ?", a-t-il demandé à Tesla.

    Les partisans d'Elon Musk, directeur général de Tesla, ont accusé M. O'Dowd de conflit d'intérêts parce que l'un des clients de Green Hills Software est Mobileye, qui développe des logiciels d'aide à la conduite. M. O'Dowd affirme que sa motivation provient uniquement des inquiétudes suscitées par la technologie de Tesla.

    Tesla maintient que son logiciel est destiné à être utilisé par un conducteur pleinement attentif et affirme qu'il est "moralement indéfendable de ne pas mettre ces systèmes à la disposition d'un plus grand nombre de consommateurs", citant des chiffres qui, selon elle, montrent une prévalence plus faible d'accidents lorsque son logiciel est activé.

    "Les gens le feraient interdire s'ils savaient la vérité, s'ils comprenaient ce qu'il fait", a déclaré M. O'Dowd. "C'est notre travail. Les politiciens ne bougeront pas tant que le public ne bougera pas".


    Les deux publicités mettent en avant trois accidents importants qui auraient impliqué Autopilot. Dans l'un d'eux, un jeune de 17 ans a été gravement blessé lorsqu'une Tesla l'a percuté à 72 km/h alors qu'il descendait d'un bus scolaire en Caroline du Nord dont le panneau d'arrêt était déployé et les feux d'avertissement clignotaient. "Pourtant, Tesla ne fait rien", conclut la publicité. "Boycottez Tesla pour assurer la sécurité de vos enfants."

    La publicité fait référence à des vidéos antérieures du Dawn Project montrant l'incapacité supposée des Teslas à réagir à des mannequins de la taille d'un enfant sur la route - y compris la publicité du Super Bowl de l'année dernière, qui a été diffusée quelques semaines avant l'accident de Caroline du Nord.

    L'autre publicité qui doit être diffusée cette année montre l'accident qui a tué un père de 50 ans en 2019 lorsque sa Tesla est passée sous la remorque d'un semi-remorque et le moment où une Tesla a grillé un panneau stop et des feux clignotants sur une route rurale de Floride avant de foncer sur un véhicule garé et de projeter un jeune couple dans les airs, tuant l'un d'entre eux et laissant l'autre gravement blessé. Dans les deux cas, Autopilot fonctionnait dans des endroits où il n'était pas censé être utilisé.

    "Tesla se dégage de toute responsabilité dans les accidents liés à l'Autopilot en mettant en avant une note enfouie dans le manuel du propriétaire qui dit que l'Autopilot n'est sûr que sur les autoroutes", commence la publicité, soulignant que les autorités fédérales ont plaidé en faveur d'une restriction de l'Autopilot.

    "Il est choquant de constater que Tesla a refusé", poursuit le spot, en présentant des images de l'accident du semi-remorque et de l'accident impliquant le jeune couple. "Cela a causé de nombreux accidents tragiques lorsque l'Autopilot a été activé sur des routes où Tesla sait qu'il n'est pas sûr. Tesla doit être tenu pour responsable. Boycottez Tesla pour assurer la sécurité de votre famille."

    Le groupe de M. O'Dowd a déclaré que les publicités sont diffusées au Washington, en Californie, au Delaware et au Michigan.

    M. Musk a pris l'attention du Super Bowl de l'année dernière à bras-le-corps. "Cela va considérablement sensibiliser le public au fait qu'une Tesla peut se conduire toute seule (supervisée pour l'instant)", a-t-il tweeté à propos de l'annonce de l'année dernière.

    L'entreprise est confrontée à la stagnation de son chiffre d'affaires, à des inquiétudes croissantes quant à sa capacité à fournir la technologie "Full Self-Driving" promise depuis longtemps, et à l'inquiétude de Wall Street face à la distraction persistante de son PDG mercuriel. L'entreprise a perdu des milliards de dollars en valeur, soit une baisse de plus de 17 % rien qu'au cours du mois dernier.

    Musk a demandé une participation plus importante dans l'entreprise comme condition pour "faire de Tesla un leader de l'IA et de la robotique", affirmant que sans un contrôle de 25 %, il "préfèrerait construire des produits en dehors de Tesla". Mais les investisseurs n'ont pas réservé un accueil chaleureux à cette idée. En janvier, un juge du Delaware a estimé qu'une rémunération sans précédent de 56 milliards de dollars qui lui avait été attribuée en 2018 était injuste.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Tesla affirme que l'action en justice de la Californie contre l'Autopilot viole ses droits à la liberté d'expression. L'entreprise est accusée d'exagérer les capacités du système dans ses publicités

    Tesla demande le retrait en ligne d'une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d'un enfant et ravive le débat sur la fiabilité de son système de conduite dit autonome
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #37
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Les sauveteurs n'ont pas pu briser les vitres d'une Tesla afin de sauver une milliardaire de la noyade
    Si l'Autopilot ne vous tue pas, ça sera les vitres : une milliardaire américaine se noie dans une Tesla après que les sauveteurs se sont battus avec les vitres renforcées de la voiture

    Tesla ajoute un nouvel accident mortel aux nombreux cas précédemment rapportés par les autorités américaines. Cette fois-ci, l'accident ne semble pas lié aux défaillances de l'Autopilot de Tesla, mais aux choix de conception de la voiture. Angela Chao, PDG milliardaire de la société de transport maritime Foremost Group, s'est tragiquement noyée après que sa Tesla s'est accidentellement enfoncée dans un étang. Les secours n'ont pas été en mesure de briser les vitres pour l'extraire de la voiture. Les vitres des Tesla, très difficiles à briser de l'intérieur, s'avèrent un problème en cas d'urgence, ce qui vient s'ajouter aux nombreux problèmes critiques de l'Autopilot.

    Angela Chao, la belle-sœur milliardaire du sénateur républicain Mitch McConnell, a passé ses dernières minutes de vie à appeler frénétiquement ses amis à l'aide alors alors que sa Tesla Model X s'enfonçait dans un plan d'eau d'un ranch isolé du Texas. Un rapport du Wall Street Journal indique que Chao rentrait chez elle au volant de sa Tesla après une soirée entre amis, mais elle a mal manœuvré au moment de faire un demi-tour en trois temps. Cette fausse manœuvre a précipité la Tesla dans un étang. Chao aurait appelé à l'aide ses amis, qui seraient tout de suite venus lui prêter main-forte.

    Cependant, selon le récit, la voiture s'enfonçait rapidement, transformant la situation en un cauchemar. Une femme aurait sauté dans l'étang, mais les tentatives d'intrusion dans le véhicule ont été inefficaces en raison de la structure renforcée des vitres des fenêtres et du toit ouvrant de la Tesla Model X. Selon un rapport d'incident obtenu par le Journal, les unités d'urgence du comté de Blanco sont finalement arrivées à 0h28, soit 24 minutes après avoir été alertées. Les adjoints du shérif se sont même placés sur la voiture pendant les opérations de sauvetage, en essayant d'ouvrir une fenêtre. Mais cela a été infructueux.


    Le rapport de police indique qu'une équipe de secours composée de deux personnes a fini par extraire Chao de la voiture vers 0h56. Des centaines de litres d'eau ont jailli de la Tesla lorsque les portes ont été ouvertes. Chao ne réagissait pas et les secouristes ont tenté de la réanimer pendant 43 minutes, en vain. Le bureau du shérif du comté de Blanco a décrit ce qui est passé comme un "accident malheureux", mais dans une lettre adressée au procureur général de l'État, Ken Paxton, il a déclaré qu'une enquête criminelle est toujours en cours et vise à recueillir suffisamment de preuves pour exclure toute activité criminelle.

    « Cet incident n'est pas un accident ordinaire », a ajouté le bureau. Une précédente étude menée par l’AAA (American Automobile Association) a montré que le verre utilisé pour les vitres et le toit ouvrant de la Tesla Model X étaient impossibles à briser depuis l’intérieur du SUV si cette dernière est immergée. En cause, leur extrême robustesse à laquelle vient s’ajouter la pression de l’eau. Le phénomène est par ailleurs également observé sur d’autres voitures équipées de vitres fabriquées dans un verre différent. Par ailleurs, le PDG Elon Musk a reconnu que Tesla a commis des erreurs dans la conception la Tesla Model X.

    Il a reconnu en 2017 que son entreprise avait commis des erreurs "très bêtes" dans la conception de la Tesla Model X, notamment en raison de sa complexité. La cause de l'accident fait l'objet d'une enquête et les détails sur la mort de Chao sont peu nombreux. Ce manque d'informations a conduit les critiques, dont l'éminent gestionnaire de fonds spéculatifs J. Kyle Bass, fondateur de la société texane Hayman Capital Management, à émettre l'hypothèse d'un piratage de la Tesla. Il convient de rappeler que les voitures Tesla sont tristement célèbres pour les nombreuses failles critiques mises en évidence dans leur sécurité.

    « Le shérif du comté de Blanco a-t-il la capacité technique d'enquêter sur les registres de Tesla pour déterminer si la voiture a été trafiquée ou même piratée ? Cette affaire continue de devenir de plus en plus suspecte », a déclaré Bass. En 2016, Musk a révélé qu'il avait dû dormir dans un sac de couchage à l'usine Tesla pour résoudre les problèmes critiques de contrôle de la qualité qui affectaient la chaîne de production de la nouvelle Model X. En février de l'année dernière, Tesla et Musk ont été poursuivis par des actionnaires pour avoir exagéré l'efficacité et la sécurité des technologies de leurs véhicules électriques.

    Dans une proposition de recours collectif déposée auprès du tribunal fédéral de San Francisco, les actionnaires ont déclaré que Tesla les a escroqués pendant quatre ans avec des déclarations fausses et trompeuses qui ont dissimulé comment ses technologies, soupçonnées d'être une cause possible de multiples accidents mortels, créaient un risque sérieux d'accident et de blessure. Selon eux, le cours de l'action Tesla a chuté à plusieurs reprises lorsque la vérité a été révélée, notamment après que la "National Highway Traffic Safety Administration" (NHTSA) a commencé à enquêter sur la technologie Autopilot de Tesla.

    L'été dernier, la NHTSA a publié un rapport accablant sur Tesla. Le rapport fait état de 736 cas d'accidents impliquant les voitures Tesla, dont 17 accidents mortels. En outre, un autre site appelé Tesla Deaths, qui fournit une perspective plus globale, indique que le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33. Le rapport de la NHTSA a suscité de nombreuses interrogations sur le contrôle de la qualité chez Tesla et la sécurité des systèmes Autopilot et Full Self-Driving (FSD) de l'entreprise. Les rapports sur leurs défaillances sont pléthores.

    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

    Certains observateurs se demandent si le bilan alarmant de l'Autopilot et du FSD n'indiquerait pas une course à l'innovation au mépris de la sécurité. Mais Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients. Dans une déclaration en 2022, le PDG de Tesla a laissé entendre : « au point où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens ».

    « Parce que les personnes dont vous avez sauvé la vie ne savent pas que leur vie a été sauvée. Et les gens qui meurent ou se blessent occasionnellement, ils le savent certainement, ou leur état le sait », a-t-il ajouté. En outre, les vulnérabilités des voitures Tesla permettent également aux chercheurs en sécurité de s'en mettre plein les poches lors du concours de piratage. Lors de la première journée du Pwn2Own Automotive en janvier, les chercheurs ont gagné plus de 700 000 dollars en piratant une Tesla, des chargeurs de véhicule électriques et plusieurs systèmes d'infodivertissement.

    La plus grosse récompense est allée à l'équipe Synacktiv, qui a gagné 100 000 dollars pour avoir piraté le véhicule de Tesla. La même équipe a gagné 195 000 dollars supplémentaires pour des exploits visant les stations de recharge Ubiquiti Connect, ChargePoint Home Flex, JuiceBox 40 et Autel MaxiCharger EV. L'année dernière, l'équipe Synacktiv avait déjà réussi à pirater une Tesla Model 3 en exécutant une attaque Time of Check to Time of Use (TOCTOU) contre la Tesla Energy Gateway. La mort accidentelle de la milliardaire Angela Chao relance le débat sur la sécurité et les défauts techniques des véhicules Tesla.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du rapport sur la mort tragique d'Angela Chao ?
    Pensez-vous que cet accident mortel pourrait être lié à un éventuel piratage ? Pourquoi ?
    Que pensez-vous des nombreux problèmes des systèmes Autopilot et Full Self-Driving de Tesla ?
    Selon vous, l'entreprise d'Elon Musk a-t-elle sacrifié la sécurité au profit d'une course à l'innovation ?
    La structure renforcée des vitres des Tesla constitue-t-elle un élément de sécurité ou est-elle dangereuse ?

    Voir aussi

    Tesla et Elon Musk poursuivis par des actionnaires qui les accusent d'avoir exagéré l'efficacité et la sécurité des technologies de leurs véhicules électriques

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

  18. #38
    Expert éminent sénior Avatar de Uther
    Homme Profil pro
    Tourneur Fraiseur
    Inscrit en
    Avril 2002
    Messages
    4 569
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Pyrénées Orientales (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Tourneur Fraiseur

    Informations forums :
    Inscription : Avril 2002
    Messages : 4 569
    Points : 15 527
    Points
    15 527
    Par défaut
    C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.

  19. #39
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    930
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 930
    Points : 2 848
    Points
    2 848
    Par défaut
    Citation Envoyé par Uther Voir le message
    C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
    On peut aussi dire qu'il s'agit du retour de bâton des campagnes d'Elon Musk sur ses voitures.

    On nous a noyés a une époque sur les Tesla, l'autopilot, la démonstration de la solidité des vitres etc.

  20. #40
    Futur Membre du Club
    Homme Profil pro
    Développeur Web
    Inscrit en
    Novembre 2022
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Novembre 2022
    Messages : 6
    Points : 7
    Points
    7
    Par défaut
    Citation Envoyé par Uther Voir le message
    C'est fou qu'on parle systématiquement de Tesla pour lancer les trolls alors que ce genre de triste accident est déjà arrivé avec bien d'autres marques de voitures. Mais il faut croire que Tesla fait plus de clics.
    Parce que Tesla c'est Elon Musk, et Elon Musk c'est le méchant patron de droite qui s'est occupé de l'hégémonie de la gauche dans les médias à coup de 12 aux Etats-Unis. Il faut avoir vu des adulescents boycotter Twitter après le rachat pour comprendre la violence de ce combat de factions.

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/03/2021, 16h02
  2. Réponses: 6
    Dernier message: 08/06/2020, 20h06
  3. Réponses: 41
    Dernier message: 14/01/2019, 13h07
  4. Réponses: 3
    Dernier message: 23/06/2006, 10h03
  5. Réponses: 3
    Dernier message: 01/02/2006, 23h17

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo