IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    583
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 583
    Points : 10 635
    Points
    10 635
    Par défaut L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour
    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules
    la NHTSA exprime des doutes

    Les autorités américaines ont annoncé avoir ouvert une nouvelle enquête sur le système d'aide à la conduite Autopilot de Tesla. Cette enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel de plus de deux millions de véhicules Tesla en décembre dernier. L'agence fédérale NHTSA (National Highway Traffic Safety Administration) affirme qu'elle a ouvert l'enquête après avoir relevé des préoccupations liées à des accidents survenus après que les véhicules ont eu la mise à jour logicielle du rappel installée. Il s'agit d'un nouveau coup dur pour Tesla qui est dans une phase descente.

    Tesla et la NHTSA ont annoncé un "rappel de sécurité" de tous les véhicules Tesla équipés de l'Autopilot en Amérique du Nord en décembre dernier. Cela représente une flotte gigantesque de plus de 2 millions de véhicules et le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent l'Autopilot. Le rappel marquait la conclusion d'une enquête pluriannuelle de la NHTSA sur les crashs des véhicules Tesla en mode Autopilot contre des véhicules d'urgence en stationnement ou arrêtés sur l'autoroute. Le "correctif" du rappel a été publié via une mise à jour logicielle en direct.


    Parmi les autres conclusions de l'enquête, la NHTSA avait constaté que le nom "Autopilot" peut "amener les conducteurs à croire que l'automatisation a des capacités plus importantes qu'elle ne l'est". L'agence fédérale avait également constaté que l'Autopilot de Tesla peut décourager les conducteurs de prendre le contrôle manuel du véhicule par rapport à d'autres systèmes de conduite automatisée, car cela désactive l'aide au centrage dans la voie Autosteer. Mais Tesla a indiqué qu'il n'était pas d'accord avec l'allégation de la NHTSA selon laquelle une surveillance inappropriée du conducteur était à l'origine de ces cas d'accidents.

    La plus haute responsable de la NHTSA à l'époque, Ann Carlson, a déclaré en décembre que la sonde de l'agence avait déterminé qu'il fallait en faire plus pour s'assurer que les conducteurs sont engagés lorsque l'Autopilot est en cours d'utilisation. « L'une des choses que nous avons déterminées est que les conducteurs ne sont pas toujours attentifs lorsque ce système est en marche », a déclaré Carlson. La NHTSA a ajouté en décembre qu'elle avait constaté que l'Autopilot de Tesla peut fournir des contrôles inadéquats d'engagement et d'utilisation du conducteur pouvant conduire à une mauvaise utilisation prévisible.

    L'entreprise a toutefois accepté d'ajouter davantage d'avertissements et d'alertes lorsque les conducteurs utilisent les fonctions de l'Autopilot, d'où le rappel. Cependant environ six mois plus tard, la NHTSA semble avoir des doutes sur l'efficacité de la mise à jour publiée dans le cadre du rappel après que de nouveaux accidents ont été signalés et que l'agence a été informée de certaines préoccupations concernant les correctifs. En raison de ces préoccupations, la NHTSA a décidé d'ouvrir une nouvelle enquête sur l'Autopilot pour déterminer si les correctifs sont adéquats. Voici un extrait de la déclaration de la NHTSA :

    Citation Envoyé par NHTSA

    Tesla a introduit le rappel 23V838 pour répondre aux préoccupations concernant le système Autopilot examiné dans l'EA22002. Après le déploiement du remède dans le rappel 23V838, l'ODI [Office of Defects Investigation] a identifié des préoccupations en raison d'accidents survenus après le déploiement de la mesure corrective et des résultats des tests préliminaires de la NHTSA sur les véhicules qui ont bénéficié de la mise à jour.

    De plus, Tesla a déclaré qu'une partie de la mesure corrective exigeait que le propriétaire choisisse de l'appliquer et permettait au conducteur de l'annuler facilement. Tesla a également déployé des mises à jour non correctives pour résoudre des problèmes qui semblent liés aux préoccupations de l'ODI dans le cadre de l'EA22002.

    Cette enquête examinera pourquoi ces mises à jour n'ont pas fait partie du rappel ou n'ont pas été déterminées pour remédier à un défaut qui pose un risque déraisonnable pour la sécurité.
    La NHTSA affirme que l'enquête concerne tous les véhicules Tesla équipés de l'Autopilot produits entre 2012 et 2024 - y compris le Cybertruck, qui fait déjà l'objet d'un rappel en raison de pédales d'accélération défectueuses. Cela représente une flotte d'un peu plus de 2 millions de véhicules Amérique du Nord. Selon certains analystes, le rappel initial a toujours été perçu comme un compromis. Le fait que Tesla ne soit pas d'accord avec les conclusions de la NHTSA et que le rappel proprement dit consiste principalement en une légère augmentation des alertes a donné l'impression d'un compromis important de part et d'autre.


    Aujourd'hui, il semble que la NHTSA veuille aller plus loin. Par ailleurs, ce n'est pas la première fois que cette mise à jour logicielle est examinée de près. Missy Cummings, experte en robotique et ancienne conseillère principale en sécurité de la NHTSA, avait déclaré que le correctif était "très vague" peu après son annonce et qu'il ne serait probablement pas aussi solide que la NHTSA le souhaiterait. De plus, les tests effectués par les experts en sécurité de Consumer Report ont révélé que la mise à jour ne va pas assez loin pour empêcher les mauvaises utilisations ou s'attaquer aux causes profondes de l'inattention du conducteur.

    En février, Consumer Reports a déclaré que ses tests de la mise à jour du rappel de l'Autopilot de Tesla ont révélé que les changements ne répondaient pas de manière adéquate à de nombreux problèmes de sécurité soulevés par la NHTSA et a exhorté l'agence à exiger de Tesla qu'il prenne des mesures plus strictes, affirmant que "le rappel de l'entreprise s'attaque à des inconvénients mineurs plutôt que de résoudre les vrais problèmes". Mais les problèmes de Tesla ne s'arrêtent pas là ; l'entreprise est confrontée à des dizaines d'enquêtes.

    Séparément, depuis 2016, la NHTSA a ouvert plus de 40 enquêtes spéciales sur les accidents de Tesla dans des cas où des systèmes de conduite tels que l'Autopilot étaient soupçonnés d'être utilisés, avec 23 décès liés aux accidents signalés à ce jour. Tesla a révélé en octobre que le département américain de la Justice (DOJ) avait émis des citations à comparaître concernant son système de conduite autonome intégrale (Full Self-Driving - FSD) et l'Autopilot. En outre, il a été rapporté en 2022 que Tesla faisait l'objet d'une enquête criminelle.

    En février 2023, Tesla a rappelé plus de 362 000 véhicules américains pour mettre à jour son logiciel FSD Beta après que la NHTSA a déclaré que les véhicules ne respectaient pas suffisamment les lois sur la sécurité routière et pouvaient provoquer des accidents. Il convient de noter que le logiciel FSD coûte 8 000 dollars et est toujours dans une phase bêta.

    Source : document de la NHTSA (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la nouvelle enquête qui vise l'Autopilot de Tesla ?
    Que pensez-vous des raisons à l'origine de l'ouverture de la nouvelle enquête de la NHTSA ?

    Voir aussi

    Tesla rappelle plus de 2 millions de véhicules pour réparer un système de surveillance défectueux d'Autopilot, soit quasiment tous les véhicules vendus au USA, encore un désastre pour Elon Musk

    Tesla annonce un rappel massif de tous les Cybertruck pour pédales d'accélérateur défectueuses, vous n'avez même plus besoin d'activer l'Autopilot pour avoir un accident

    Cybertruck de Tesla : Freinages brusques et inattendus avec Autopilot activé, code d'erreur empêchant la recharge, les propriétaires accusent Tesla d'avoir précipité la sortie du véhicule

  2. #2
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 946
    Points : 2 055
    Points
    2 055
    Par défaut
    Il convient de noter que le logiciel FSD coûte 8 000 dollars et est toujours dans une phase bêta.
    Perso je ne comprends pas que la justice face des enquêtes sans stopper net les bêta tests réalisés par les clients et involontairement par tous les autres usagers de la route.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  3. #3
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 987
    Points
    36 987
    Par défaut Test du rappel Autopilot de Tesla - Un sentiment persistant d'insécurité, selon le chroniqueur Geoffrey Fowler
    Voitures autonomes : « En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager »,
    déclare Geoffrey Fowler, chroniqueur technologique

    Geoffrey Fowler, un chroniqueur technologique, partage ses inquiétudes dans un article de blog après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Malgré les assurances de sécurité, Fowler constate que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne que le rappel visait à encourager l'attention des conducteurs en détectant les mains sur le volant, mais son expérience démontre que la voiture peut traverser la ville sans qu'il ait besoin de lever les mains du volant pendant des périodes prolongées.

    Tesla fait face à des problèmes persistants liés à son système Autopilot, malgré un rappel massif de plus de 2 millions de véhicules. Consumer Reports indique que les tests préliminaires révèlent que la solution de Tesla pour surveiller l'attention des conducteurs est insuffisante, permettant aux conducteurs de neutraliser le système et de l'utiliser de manière abusive, créant ainsi des risques pour la sécurité. Bien que Tesla ait publié une mise à jour logicielle en réponse à une enquête fédérale, Consumer Reports estime que les changements apportés ne vont pas assez loin pour prévenir une mauvaise utilisation. Des inquiétudes subsistent quant à la capacité des conducteurs à contourner les contrôles et à utiliser l'Autopilot de manière inappropriée, malgré les modifications apportées par le rappel.

    Nom : teslaB.png
Affichages : 8764
Taille : 206,8 Ko

    Tesla a demandé à la National Highway Traffic Safety Administration (NHTSA) de ne pas divulguer l'implication de ses logiciels Autopilot et Full Self-Driving dans les accidents de la route, alléguant que ces informations relèvent du secret commercial. La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises. Les systèmes Autopilot et Full Self-Driving ont été au centre de controverses, avec des enquêtes en cours sur des accidents, certains mortels, impliquant des véhicules Tesla utilisant ces technologies. Malgré les promesses de conduite autonome de Musk, les logiciels de Tesla sont critiqués pour leurs performances. En juin, on a signalé 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. La NHTSA enquête sur 35 accidents impliquant des systèmes avancés d'aide à la conduite de Tesla depuis 2016, dont 14 ont entraîné des décès.

    Tesla accusée de cacher les accidents liés à son Autopilot

    Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla. La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.

    Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.

    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.

    Selon les données de la NHTSA, les accidents mortels et les blessures graves associés à Autopilot de Tesla ont considérablement augmenté, avec une focalisation particulière sur la technologie Full Self Driving encore en phase bêta. Depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA en cas d'accident impliquant des systèmes de conduite partiellement automatisés, tels que ceux de niveau 2. Les statistiques révèlent que Tesla était impliqué dans les trois quarts de tous les accidents ADAS signalés entre juillet 2021 et mai 2022, totalisant 273 accidents sur 367. De plus, cinq des six décès répertoriés dans les données de juin 2022 étaient associés à des véhicules Tesla. Ces chiffres mettent en évidence une tendance préoccupante qui soulève des inquiétudes quant à la fiabilité et à la sécurité d'Autopilot.

    Critiques envers Tesla et Musk pour un Autopilot jugé trompeur

    Les critiques envers Tesla et Elon Musk s'intensifient, notamment en raison du nom "Autopilot" jugé trompeur par le sénateur américain Edward Markey en 2020. Markey a exhorté Tesla à renommer le système, soulignant son potentiel danger et appelant à la création d'outils de surveillance des pilotes. Tesla a répondu en affirmant avoir pris des mesures pour améliorer la sécurité, notamment en introduisant de nouveaux avertissements.

    Cependant, malgré les affirmations de Musk sur la supériorité de la sécurité des modèles autonomes, les poursuites judiciaires se multiplient. Un juge californien a ordonné que Musk soit interrogé sous serment concernant ses déclarations sur Autopilot, malgré les tentatives de Tesla de discréditer une éventuelle vidéo de Musk comme étant un deepfake. La cour a rejeté cet argument, ordonnant finalement que le PDG de Tesla se présente au tribunal pour une déposition sous serment.

    Geoffrey Fowler, le chroniqueur technologique, a soumis sa Tesla à deux tests de conduite identiques avant et après une mise à jour. Le processus de rappel pour la réparation, signalé comme manquant d'urgence, a révélé des lacunes dans la facilité d'obtention des mises à jour. L'auteur a utilisé la fonction Autosteer, décrite comme une version bêta par Tesla, mais largement disponible. Les essais ont montré que, malgré le rappel, Autosteer continuait de s'activer dans des conditions non appropriées, y compris en dehors des autoroutes et à travers des intersections avec des panneaux d'arrêt, provoquant des situations dangereuses.

    Les avertissements visuels ont été améliorés, mais l'auteur s'interroge sur l'impact potentiel des distractions d'écran sur la sécurité routière. Les résultats des tests soulèvent des questions sur la nécessité d'une régulation plus stricte de la fonction Autosteer par la NHTSA et suscitent des préoccupations quant à la conception et à la sécurité du logiciel d'Autopilot de Tesla.

    Geoffrey a exprimé des préoccupations quant à l'inaction de la NHTSA (National Highway Traffic Safety Administration) face aux problèmes de sécurité liés aux mises à jour logicielles de Tesla. Le sénateur Richard Blumenthal appelle à des mesures plus strictes de la part de Tesla et demande à la NHTSA d'agir contre Elon Musk. La NHTSA déclare que la responsabilité de développer des correctifs de sécurité incombe au fabricant, et elle n'approuve pas les solutions à l'avance.


    Le centre de recherche de l'agence prévoit des tests sur les véhicules Tesla rappelés, mais il n'est pas clair quand cela se produira. Le texte souligne la nécessité de réglementations plus rigoureuses pour les technologies automobiles, comparant la situation aux examens préalables des applications pour téléphones mobiles. Le sénateur Markey conclut en appelant à des solutions de sécurité plus intelligentes pour les voitures du futur.

    Geoffrey souligne le besoin d'une réglementation plus stricte et d'une supervision gouvernementale plus rigoureuse, appelant à une limitation de la fonction Autosteer aux autoroutes à accès limité. Finalement, il interroge sur la responsabilité du gouvernement et de la NHTSA (Administration nationale de la sécurité routière) dans la supervision des mises à jour logicielles des véhicules autonomes et appelle à des mesures plus strictes pour garantir la sécurité publique dans cette ère émergente de véhicules autonomes.

    Source : Geoffrey Fowler's blog post

    Et vous ?

    Quel est votre avis sur le sujet ?
    L'analyse de Geoffrey Fowler est-elle pertinente ?
    Êtes-vous pour ou contre les voitures autonomes ?
    Partagez-vous le sentiment d'insécurité persistant de Geoffrey Fowler au sujet des Tesla ?

    Voir aussi :

    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents

    Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige, de quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre éclairé
    Homme Profil pro
    Webdesigner
    Inscrit en
    Juin 2014
    Messages
    417
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Hautes Pyrénées (Midi Pyrénées)

    Informations professionnelles :
    Activité : Webdesigner
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Juin 2014
    Messages : 417
    Points : 834
    Points
    834
    Par défaut
    La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
    Sommes-nous dans un mode orwellien ?

    Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?

  5. #5
    Membre éclairé
    Homme Profil pro
    Urbaniste
    Inscrit en
    Août 2023
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : Août 2023
    Messages : 386
    Points : 792
    Points
    792
    Par défaut
    Non c'est le fonctionnement normal des USA, et de la privatisation en général.

    Les entreprises financent les autorités qui les régulent,
    ce sont les entreprises qui évaluent et rapportent sur la qualité
    et la nocivité de leurs produits.

    La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
    Ce qui fait dire,
    Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
    Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
    à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
    dans ces articles constituant.

    En résumé, tout fonctionne comme il se doit
    puisque c'est ainsi que les choses ont été faites pour fonctionner,
    même si par ailleurs,
    ça semble aberrant.

  6. #6
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 946
    Points : 2 055
    Points
    2 055
    Par défaut
    La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
    Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
    Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 520
    Points : 199 050
    Points
    199 050
    Par défaut Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving
    Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving.
    « On nous a vendu un faux sentiment de sécurité », a déclaré sa veuve, rappelant que Musk a déclaré que la voiture pouvait « se conduire toute seule »

    Hans von Ohain, un recruteur chez Tesla et un admirateur du PDG Elon Musk de 33 ans, aurait perdu la vie dans un accident de voiture au Colorado en 2022 impliquant le système de conduite autonome de Tesla, appelé Full Self-Driving (FSD). Selon son ami et passager Erik Rossiter, qui a survécu à la collision, von Ohain avait activé le FSD sur sa Tesla Model 3 lorsqu’il a quitté la route et heurté un arbre, provoquant une explosion et un incendie. Bien que le jeune père de famille ait consommé de l'alcool avant l'accident mortel, les détectives ont élargi leur enquête après qu'il est apparu qu'il ne s'agissait pas d'un cas ordinaire de conduite en état d'ébriété.

    « Indépendamment de l'état d'ébriété de Hans, Musk a prétendu que cette voiture pouvait se conduire toute seule et qu'elle était essentiellement meilleure qu'un humain », a déclaré Nora Bass, la veuve de von Ohain. « On nous a donné un faux sentiment de sécurité ».


    Un employé de Tesla (et fan « dévoué » de son PDG Elon Musk) nommé Hans von Ohain a été tué après que sa Model 3 se soit écrasée contre un arbre et ait pris feu en 2022. Son ami et passager Erik Rossiter, qui a survécu à la collision, a depuis déclaré au Washington Post que Hans von Ohain avait activé la fonction de Full Self-Driving de la voiture au moment de l'accident mortel.

    Si cette hypothèse est confirmée, il pourrait s'agir du premier décès connu lié à cette fonction, une option de 15 000 dollars qui a déjà attiré l'attention des autorités de régulation.

    Le quotidien a également confirmé que le véhicule était équipé de cette fonction (von Ohain l'avait reçue gratuitement grâce à sa réduction d'employé) et sa veuve a également déclaré qu'il l'utilisait fréquemment.

    L’accident s’est produit près de Denver, dans le Colorado, alors que les deux amis revenaient d’une partie de golf. Rossiter a déclaré au Washington Post que le FSD avait fait plusieurs écarts pendant le trajet aller et que von Ohain avait dû reprendre le contrôle à plusieurs reprises. Ils avaient également consommé de l’alcool pendant la journée, mais Rossiter a affirmé que von Ohain semblait sobre et maître de lui au moment de monter dans la voiture pour le retour.

    Une autopsie de von Ohain a révélé qu’il avait un taux d’alcoolémie de 0,26 - plus de trois fois la limite légale. La police de l’État du Colorado a conclu que l’intoxication était le principal facteur à l’origine de l’accident, mais elle a également mené une enquête sur le rôle éventuel du FSD de Tesla. Le sergent Robert Madden, qui a dirigé l’enquête, a observé des traces de pneus en roulement sur le lieu de l’accident, ce qui signifie que le moteur a continué à envoyer de la puissance aux roues au moment de l’impact. Il n’y avait pas non plus de traces de freinage.

    Madden a déclaré : « Étant donné la dynamique de l’accident et la façon dont le véhicule a quitté la route sans preuve d’une manœuvre soudaine, cela correspond à la fonctionnalité [d’assistance à la conduite] ». Il a ajouté qu’il n’avait pas accès aux journaux de bord du véhicule, qui auraient pu confirmer ou infirmer l’utilisation du FSD.

    La veuve de von Ohain, Nora Bass, veut que Tesla assume sa responsabilité dans la mort de son mari : « Peu importe à quel point Hans était ivre, Musk a affirmé que cette voiture pouvait se conduire elle-même et qu’elle était essentiellement meilleure qu’un humain. On nous a vendu un faux sentiment de sécurité ». Elle n’a pas réussi à trouver un avocat pour prendre l’affaire, car son mari était ivre.

    Nom : voiture.png
Affichages : 6216
Taille : 332,8 Ko

    L'entreprise tente de se dédouaner

    Malgré le marketing trompeur de l'entreprise, les véhicules Tesla sont encore loin d'être capables de se conduire tout seuls. Sur son site web, l'entreprise avertit les conducteurs qu'ils doivent être « prêts à prendre des mesures immédiates, y compris le freinage » :

    Les fonctionnalités Autopilot, Enhanced Autopilot et Full Self-Driving sont destinées à un conducteur attentif, qui a les mains sur le volant et qui est prêt à prendre le contrôle à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, votre véhicule n’est pas autonome avec les fonctionnalités actuellement actives[...].

    Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
    Full Self-Driving (FSD) développe le logiciel d'aide à la conduite Autopilot de l'entreprise, et est conçu pour prendre des décisions au nom de l'utilisateur tout en conduisant à la fois sur les autoroutes et dans les rues animées des villes.

    Alors que la National Highway Traffic Safety Administration enquête déjà sur Autopilot à la suite d'une série d'accidents dans lesquels des Tesla ont percuté des véhicules d'intervention d'urgence arrêtés avec des sirènes ou des fusées éclairantes, aucun accident mortel n'a été définitivement lié à la FSD - bien que la mort de von Ohain, comme le rapporte Washington Post, semble assurément suspecte.

    Selon une analyse du Washington Post de l'année dernière, le nombre d'accidents mortels impliquant le mode Autopilot a bondi. Sur plus de 700 accidents impliquant la fonctionnalité depuis 2019, au moins 17 ont été mortels.

    Qui est responsable ?

    Néanmoins, même si l'alcool n'était pas en cause, des experts ont souligné que le marketing trompeur de Tesla pouvait donner aux conducteurs un faux sentiment de sécurité au volant.

    Malgré les affirmations démesurées de Tesla au sujet de cette technologie, Tesla maintient que sa fonction FSD est encore en "bêta", ce qui signifie qu'elle est toujours en cours de développement.

    Sa prise de décision sur la route peut être très suspecte. Dans une vidéo téléchargée la semaine dernière, le propriétaire d'une Tesla a dû neutraliser la fonction après que la voiture a tenté de tourner brusquement à gauche, se dirigeant tout droit vers les véhicules venant en sens inverse. Nous avons également vu des vidéos de Teslas avec la fonction activée ignorant des feux rouges, percutant une voiture de police et se débattant dans la neige.

    La mort de Von Ohain soulève d'importantes questions éthiques, notamment en ce qui concerne la culpabilité. Le marketing trompeur de Tesla est-il à blâmer, ou s'agit-il d'un cas d'imprudence de la part d'un conducteur ?

    Sa veuve a déclaré au journal que, personnellement, elle trouvait la fonction trop imprévisible et « saccadée ».

    L'enjeu est de taille, puisque Musk a déclaré en 2022 que la FSD est « la différence entre une Tesla qui vaut beaucoup d'argent et une Tesla qui n'en vaut pratiquement pas du tout ». Même si le développement de cette fonction bénéficie de tout son soutien, le logiciel est encore loin d'atteindre son objectif déclaré d'autonomie totale.

    Musk a promis à plusieurs reprises que Tesla atteindrait le niveau 5 d'autonomie en moins d'un an, un point auquel une voiture est entièrement autonome et n'a pas besoin de volant ou de pédale de frein. Cependant, aujourd'hui, la fonction n'a toujours pas dépassé le niveau 2 d'autonomie, qui exige que le conducteur prenne le contrôle à tout moment.

    Le FSD de Tesla qualifié « d'escroquerie flagrante »

    Jason Hughes, un hacker bien connu dans le monde Tesla, a qualifié le FSD de Tesla « d'escroquerie flagrante ». Il a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.

    En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

    Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

    Nom : jason.png
Affichages : 2103
Taille : 18,1 Ko

    Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

    Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.

    Sources : Washington Post, Tesla

    Et vous ?

    Que pensez-vous du FSD de Tesla ? Est-ce une technologie révolutionnaire ou dangereuse ?
    Qui devrait être tenu responsable des accidents impliquant le FSD de Tesla ? Le conducteur, Tesla, ou les deux ?
    Faites-vous confiance à la conduite autonome ? Seriez-vous prêt à utiliser le FSD de Tesla ou un système similaire ?
    Quels sont les avantages et les inconvénients de la conduite autonome pour la société et l’environnement ?
    Quelles sont les limites de la conduite autonome ? Comment les réguler et les contrôler ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 520
    Points : 199 050
    Points
    199 050
    Par défaut Full Self-Driving de Tesla obtient la pire note globale en matière de sécurité
    Un groupe de travail sur la sécurité des véhicules teste 14 systèmes de conduite partiellement automatisée. Aucun n'obtient la note "bon",
    et Full Self-Driving de Tesla obtient la pire note globale

    Les systèmes d'automatisation partielle des véhicules capables d'effectuer certaines fonctions sont censés simplifier la conduite et la rendre plus sûre, mais les résultats d'une nouvelle étude contredisent les affirmations des constructeurs automobiles. Sur les 14 systèmes testés, aucun n'a obtenu la mention "bon".

    Dans un monde où la sécurité automobile est primordiale, les résultats d’une récente étude menée par l’Insurance Institute for Highway Safety (IIHS) sont préoccupants. L’IIHS, un groupe indépendant non lucratif dédié à la réduction des décès, des blessures et des dommages matériels résultant d’accidents de la route, a testé 14 systèmes de conduite automatisée partielle. Ces systèmes, qui comprennent des fonctions telles que le régulateur de vitesse adaptatif, la direction coopérative, l’assistance au maintien de la trajectoire, les changements de voie automatisés et les systèmes qui permettent parfois au conducteur de lâcher le volant, sont censés rendre nos expériences de conduite plus simples et plus sûres.

    Cependant, aucun des systèmes testés n’a reçu la note “bon”. Seul un système a été jugé “acceptable”, deux ont été classés comme “marginaux” et les autres ont été qualifiés de “pauvres”. Parmi les systèmes évalués, celui de Tesla, le Full Self-Driving (Beta) Version 2023.7.10, a reçu la pire évaluation globale, avec une note “pauvre” dans six catégories et “acceptable” dans les deux autres.

    Nom : require.png
Affichages : 7512
Taille : 60,4 Ko

    Les résultats

    L'IIHS a évalué les caractéristiques des véhicules en fonction de la surveillance du conducteur, des rappels d'attention, des procédures d'urgence et d'autres aspects de la conception du système, leur attribuant une note bonne, acceptable, marginale ou médiocre en fonction de leurs mesures de protection.

    Parmi les exemples de bonnes mesures de protection, citons la surveillance du regard et de la position des mains du conducteur, l'utilisation de plusieurs types d'alertes progressives pour attirer l'attention du conducteur et les changements de voie automatisés déclenchés ou confirmés par le conducteur. Aucun des 14 systèmes n'a obtenu une bonne note : Un seul a été jugé acceptable, deux ont été qualifiés de marginaux et les autres ont été jugés "médiocres".

    Nom : rate_1.png
Affichages : 1730
Taille : 11,7 Ko
    Nom : rate_2.png
Affichages : 1739
Taille : 11,5 Ko

    Les systèmes de BMW, Ford, General Motors, Genesis, Lexus, Mercedes-Benz, Nissan, Tesla et Volvo ont tous été testés par l'IIHS. Le système Lexus Teammate with Advanced Drive a été le seul à être jugé acceptable, bien qu'un autre système de la société, le régulateur de vitesse dynamique à radar Lexus avec assistance au suivi de voie, ait reçu une note médiocre. Le Super Cruise de GM et le ProPilot Assist de Nissan sont les deux systèmes jugés marginaux.

    La version 2023.7.10 (bêta) du système d'autoguidage intégral de Tesla a reçu la plus mauvaise note. Son système a été jugé médiocre dans six catégories et acceptable dans les deux autres. Le système Autopilot de Tesla s'est à peine amélioré, recevant une bonne note pour le changement de voie au lieu d'une mauvaise.

    L'un des tests consistait à couvrir le visage du conducteur avec une étamine pour voir si un système pouvait être activé lorsque le visage d'une personne était masqué. L'IIHS a également recouvert des caméras de feutre pour une autre évaluation et a fixé des poids au volant pour simuler les mains d'un conducteur afin d'essayer de tromper les systèmes.

    Cette étude souligne l’importance de la prudence lors de l’utilisation de systèmes de conduite automatisée partielle et met en évidence la nécessité d’améliorations significatives pour garantir la sécurité des conducteurs et des passagers sur nos routes.

    Tesla et la controverse en 2023

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving

    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

    « Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

    Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

    Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.

    Tesla vous attaquera en justice pour 50 000 $ si vous essayez de revendre votre Cybertruck au cours de la première année

    Tesla a ajouté une nouvelle section controversée à ses conditions d'achat qui interdit aux clients qui recevront les premiers Cybertruck de revendre leurs véhicules au cours de la première année. Les clients qui envisageront néanmoins de la faire devront d'abord obtenir l'autorisation de Tesla, sans quoi la société d'Elon Musk se réserve le droit de les poursuivre en justice et pourrait leur réclamer des dommages-intérêts pouvant aller jusqu'à 50 000 dollars. Tesla n'autorise pas non plus le transfert gratuit de la fonction Autopilot à un propriétaire qui a acheté un véhicule d'occasion, affirmant que celui-ci ne peut pas utiliser les fonctions pour lesquelles il n'a pas payé.

    Tesla menace de faire appel à des personnes chargées de saboter les grèves

    Les entreprises de véhicules autonomes sont dans la tourmente et l'industrie se réorganise

    Les entreprises de véhicules sans conducteur ont été confrontées ces dernières années à une série de problèmes qui ont eu un impact important sur leurs activités. En 2023, par exemple, les constructeurs de véhicules autonomes ont fait l'objet d'un examen minutieux en raison de problèmes de sécurité. Cruise, la branche de General Motors spécialisée dans les véhicules autonomes, a été contrainte d'arrêter complètement ses activités, et Tesla a lancé un rappel massif de 2 millions de véhicules en raison de problèmes liés à son système de conduite autonome Autopilot. Les régulateurs travaillent également sur des règles strictes pour les véhicules autonomes.


    À la fin de l'année dernière, Cruise est passé presque du jour au lendemain de l'une des plus grandes opportunités commerciales de General Motors à une situation de plus en plus délicate. Cruise a fait face à une vague de problème et d'enquêtes déclenchées par un accident survenu le 2 octobre dans lequel un piéton à San Francisco a été traîné sur environ six mètres par l'une de ses voitures autonomes après que la personne a été heurtée par un autre véhicule. Les enquêtes sur l'incident sont en cours. Depuis, la flotte de robotaxis de Cruise a été immobilisée, les autorités ayant déclaré que ces voitures ne sont pas sans danger pour les usagers de la route.

    Mais encore, la direction de Cruise a été vidée de sa substance : ses cofondateurs ont démissionné et neuf autres dirigeants ont été évincés. La société a licencié 24 % de son personnel. En outre, General Motors réduit massivement les dépenses et les plans de croissance de l'entreprise, notamment en interrompant la production d'un nouveau robotaxi. General Motors avait de grandes ambitions pour dépasser Tesla dans la production de véhicules électriques, la technologie de conduite autonome, et peut-être d'autres domaines, mais selon des personnes au fait des discussions au sein de l'entreprise, l'un après l'autre, ces ambitions sont désormais reconsidérées.

    Après une décennie passée à suivre Elon Musk et Tesla, les constructeurs automobiles commencent à comprendre que, tout comme l'adoption des véhicules électriques, l'augmentation des niveaux d'automatisation de la conduite n'est pas nécessairement ce que veulent les clients. Les "innovateurs" et "les adopteurs précoces" peuvent aimer les logiciels de conduite autonome, mais ce n'est pas le cas de la majorité des consommateurs, qui ne veulent certainement pas payer un abonnement mensuel pour des fonctions qui rendent la conduite plus difficile et qui les rendent responsables des conséquences des décisions prises par un logiciel de conduite.

    Source : IIHS

    Et vous ?

    Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
    Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
    Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
    Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
    Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
    Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 946
    Points : 2 055
    Points
    2 055
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
    on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

    Citation Envoyé par Stéphane le calme Voir le message
    Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
    Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
    Citation Envoyé par Stéphane le calme Voir le message
    Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
    Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
    Citation Envoyé par Stéphane le calme Voir le message
    Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
    1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
    2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
    3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
    4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
    5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
    6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
    7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

    Citation Envoyé par Stéphane le calme Voir le message
    Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
    bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

    Citation Envoyé par Stéphane le calme Voir le message
    Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
    en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  10. #10
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 397
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 397
    Points : 9 825
    Points
    9 825
    Par défaut
    Citation Envoyé par petitours Voir le message
    Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
    Musk aurait-il racheter Boeing ?
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  11. #11
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 987
    Points
    36 987
    Par défaut Le portrait d'elon musk par Andrej Karpathy : vision et realisation dans l'industrie automobile
    Le portrait d'elon musk par Andrej Karpathy : vision et realisation dans l'industrie automobile,
    il souligne la vision de rendre les véhicules électriques et autonomes accessibles au grand public

    Andrej Karpathy, ancien responsable du pilote automatique chez Tesla et chercheur de renom dans le domaine de l'intelligence artificielle, a récemment partagé ses réflexions sur Elon Musk, le magnat de la technologie et PDG de Tesla. Karpathy, qui a travaillé étroitement avec Musk pendant son mandat chez Tesla, a exprimé son admiration pour le visionnaire controversé.

    Dans une récente interview, Karpathy a loué l'approche audacieuse de Musk en matière de technologie et d'innovation. Il a souligné l'impact de Musk sur l'industrie automobile, notamment sa vision de rendre les véhicules électriques et autonomes accessibles au grand public. Karpathy a également abordé la relation complexe entre lui-même et Musk, soulignant à la fois les défis et les avantages de travailler aux côtés d'une personnalité aussi exigeante et visionnaire. Il a évoqué les moments de tension et de pression intense, mais a également souligné l'inspiration et la motivation qu'il a tirées de cette collaboration.


    Nom : Elo.jpg
Affichages : 8077
Taille : 43,7 Ko

    En parlant de la récente controverse entourant Musk et ses diverses entreprises, Karpathy a pris un ton plus nuancé. Il a reconnu que Musk était un personnage polarisant, mais a également souligné son engagement envers des objectifs ambitieux et sa détermination à les réaliser, en dépit des obstacles. En fin de compte, Karpathy a exprimé sa gratitude envers Musk pour l'opportunité de travailler sur des projets révolutionnaires chez Tesla et pour la chance de contribuer à façonner l'avenir de la technologie automobile et de l'IA. Bien que les deux hommes puissent avoir des perspectives différentes sur certains sujets, Karpathy a clairement indiqué qu'il respectait profondément le leadership et la vision de Musk dans le domaine de la technologie.

    Le responsable de l'intelligence artificielle (IA) et de l'Autopilot chez Tesla, Andrej Karpathy, a révélé le 13 juillet 2022 qu'il avait quitté son poste au sein du constructeur de véhicules électriques. Sur Twitter, Karpathy a exprimé sa gratitude pour ses cinq années passées chez Tesla et a déclaré que cette décision de partir avait été difficile. Il a également souligné les progrès réalisés par l'équipe d'Autopilot au fil des ans, passant de la simple gestion de voie aux défis plus complexes de la conduite en milieu urbain.

    Le départ de Karpathy intervient après la fermeture d'un bureau de Tesla à San Mateo, en Californie, où des équipes travaillaient sur l'annotation des données pour améliorer les systèmes d'assistance à la conduite de l'entreprise. Bien qu'il n'ait pas de plans concrets pour l'avenir, Karpathy a exprimé son intention de consacrer plus de temps à ses passions à long terme, notamment le travail technique en IA, l'open source et l'éducation.

    En août 2021, la National Highway Traffic Safety Administration (NHTSA), le département américain de la sécurité routière, a ouvert une enquête sur la fonction Autopilot de Tesla après que 11 accidents impliquant des Tesla se sont produits avec des véhicules d'urgence. En fin de compte, Tesla n'a pas encore pu réaliser la promesse de Elon Musk faite en 2016, qui garantissait une voiture autonome capable de conduire de Los Angeles à New York sans intervention humaine d'ici la fin de 2017, et réitérée en janvier de cette année.

    Un analyste a exprimé son scepticisme face aux déclarations d'Elon Musk, le comparant à un milliardaire fictif vantant un produit impossible à développer. Il a souligné la réputation de Musk de fixer des délais ambitieux mais souvent irréalistes. En 2019, Musk a levé des milliards de dollars pour Tesla en promettant 1 million de voitures prêtes pour le service de robotaxi d'ici fin 2020, une promesse qui n'a pas été réalisée. Bien que Tesla propose des fonctionnalités d'aide à la conduite telles que le régulateur de vitesse adaptatif, l'assistance au maintien dans la voie et la navigation automatisée, même son système de conduite autonome le plus avancé, appelé système Beta d'auto-conduite intégrale, nécessite la vigilance d'un conducteur humain.

    Le départ d'Andrej Karpathy de Tesla survient au moment où l'entreprise a annoncé le licenciement de 229 employés chargés de l'annotation des données de son équipe Autopilot, ainsi que la fermeture du bureau de San Mateo, en Californie, où ils travaillaient. La plupart de ces travailleurs occupaient des postes peu qualifiés, notamment l'étiquetage des données de l'Autopilot, consistant à vérifier si l'algorithme de Tesla identifie correctement les objets. Karpathy, en tant que directeur principal de l'IA, travaillait au siège social de Tesla à Palo Alto, en Californie, et relevait directement d'Elon Musk.

    Après avoir annoncé son départ d'OpenAI, société mère de ChatGPT, Andrej Karpathy, ancien responsable des voitures automatiques de Tesla et éminent chercheur scientifique, semble avoir vidé son agenda, ce qui suscite l'envie d'Elon Musk. Karpathy a partagé sur X une capture d'écran de son calendrier vide, provoquant une réaction d'admiration de la part du PDG de Tesla. Musk a promis de ne pas acquérir de sociétés constituées dans le Delaware pour éviter des litiges. Le profil LinkedIn de Karpathy révèle son impressionnant parcours académique, notamment des études à Stanford et un stage chez Google DeepMind AI.

    Les départs et retours d'Andrej Karpathy : entre Openai et Tesla, une saga de l'IA

    Andrej Karpathy, ancien directeur de l'IA chez Tesla, a récemment été invité dans le podcast de Lex Fridman, où il a abordé divers sujets, notamment son départ du constructeur de véhicules électriques. Au cours de la discussion avec Fridman, Karpathy a laissé entendre qu'il était ouvert à un « Acte 2 » chez Tesla, surtout alors que l'entreprise se trouve au seuil de quelque chose de grand avec Optimus.

    « Il est évident que j'aime beaucoup l'entreprise. J'adore Elon. J'adore Tesla. C'était difficile de partir. J'aime l'équipe. En fait, je serais vraiment intéressé à y revenir, peut-être à un moment donné. Travailler sur Optimus, travailler sur l'AGI chez Tesla. Je pense que Tesla va réaliser des choses incroyables.

    « C'est essentiellement comme une entreprise de robotique à grande échelle, avec un tas de talents internes pour réaliser des choses incroyables. Et je pense que les robots seront incroyables. Je pense que le transport autonome sera incroyable. Tout cela se passe chez Tesla. C'est juste une organisation vraiment incroyable. Donc, en faire partie et l'aider, j'ai beaucoup apprécié... Je suis heureux de potentiellement, à un moment donné, revenir pour un 'Acte 2', » a déclaré Karpathy.

    Elon Musk a répondu à un extrait de l'interview de Fridman avec l'ancien directeur de l'IA de Tesla, notant que « Andrej sera toujours le bienvenu chez Tesla. » Avec cela à l'esprit, et avec le travail sur Optimus probablement en cours d'intensification dans un avenir proche, le second acte d'Andrej Karpathy chez Tesla pourrait venir plus tôt que prévu.

    Musk et Karpathy semblent définitivement avoir maintenu leur amitié après le départ de l'ancien directeur de l'IA de Tesla. Lors de l'AI Day 2022, Musk a personnellement fait une blague à Karpathy, qui a fini par boire un peu trop à cause de la plaisanterie du PDG de Tesla sur le « Logiciel 2.0 ».

    Son départ de Tesla pour OpenAI, puis son retour, ont suscité la controverse, notamment en raison de son rôle clé chez OpenAI et des préoccupations quant à d'éventuels conflits d'intérêts. Son expertise a été particulièrement précieuse pour Tesla dans le développement de l'IA pour le système Autopilot. Son départ récent d'OpenAI pour la deuxième fois a alimenté les spéculations sur ses futurs projets, notamment en tant qu'influenceur sur YouTube. Bien que ses responsabilités aient été transférées, son départ laisse un vide potentiellement significatif au sein d'OpenAI.

    Andrej Karpathy, membre fondateur d'OpenAI en 2015 aux côtés de Sam Altman et Elon Musk, a récemment annoncé son départ de la société pour se consacrer à des projets personnels, marquant ainsi son deuxième départ de la start-up. Avec une expertise reconnue en informatique et en intelligence artificielle, Karpathy est célèbre pour ses contributions dans les domaines de l'apprentissage profond, du traitement automatique du langage naturel et de la vision par ordinateur.

    Détenteur d'un doctorat en informatique de l'Université de Stanford, Karpathy a également travaillé chez Google DeepMind et Google Research avant de rejoindre OpenAI en tant que chercheur scientifique, où il s'est concentré sur des sujets tels que le deep learning pour les modèles d'IA générative et le deep reinforcement learning.


    Après son premier départ d'OpenAI en 2017, Karpathy a rejoint Tesla, dirigée par Elon Musk, en tant que directeur de l'IA et de l'équipe de vision par ordinateur d'Autopilot jusqu'en juillet 2022. Il partage régulièrement son expertise sur sa chaîne YouTube et les réseaux sociaux, où il explique le fonctionnement de l'IA et des LLM.

    Annonçant son retour chez OpenAI il y a un an sur Twitter, Karpathy a maintenant confirmé son départ récent de la société sur cette même plateforme. Il a clarifié qu'il s'agissait d'une décision personnelle et que ses responsabilités avaient été transférées à un autre chercheur principal au sein de l'entreprise. Actuellement, Karpathy se concentre sur ses projets personnels, ce qui a conduit certains à spéculer sur un éventuel retour chez Tesla. Cependant, il a récemment partagé sur GitHub un projet lié à l'algorithme BPE, suggérant qu'il pourrait explorer d'autres domaines de l'IA dans ses travaux futurs.

    Source : vidéo

    Et vous ?

    Quel est votre avis sur le sujet ?

    Selon vous, en quoi les moments de tension et de pression intense ont-ils influencé le travail de Karpathy chez Tesla ?

    Quelles sont votre avis les sources d'inspiration et de motivation que Karpathy mentionne dans sa collaboration avec Musk ?

    Voir aussi :

    Andrej Karpathy, responsable de l'IA chez Tesla, annonce qu'il quitte l'entreprise, après un licenciement de 229 employés de l'Autopilote par Elon Musk

    Tesla a surveillé ses employés sur Facebook avec l'aide d'une entreprise de relations publiques lors de la poussée syndicale de 2017
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 520
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 520
    Points : 199 050
    Points
    199 050
    Par défaut Mon combat contre Tesla : Je veux laver mon nom avant de mourir. Une ingénieure accuse Tesla de diffamation
    Mon combat contre Tesla : Je veux laver mon nom avant de mourir. Une ingénieure accuse Tesla de diffamation,
    Elle a été licencié après avoir soulevé un problème de sécurité concernant un défaut de conception

    L'ingénieure Cristina Balan était autrefois populaire chez Tesla, aux États-Unis. Mais après avoir soulevé un problème de sécurité concernant un défaut de conception susceptible d'affecter le freinage des voitures en 2014, elle affirme que la direction est devenue hostile et qu'elle a perdu son emploi. Cristina Balan affirme avoir été diffamée par son ancien employeur en 2017, ce qui a porté atteinte à sa réputation professionnelle, mais grâce à une série d'arguments procéduraux (notamment le recours à l'arbitrage privé), les avocats de Tesla ont évité que l'affaire soit portée devant un tribunal public.

    Elle se bat maintenant, en tant que mère célibataire, pour sa vie et sa réputation, et elle souhaite ardemment laver son nom. « Je veux laver mon honneur. J’aimerais qu’Elon Musk ait la décence de s’excuser », a-t-elle déclaré à l'occasion d'une interview. Balan, en rémission d’un cancer, affirme qu'elle est déterminée à prouver son innocence pour le bien de son fils : « Je suis son héroïne », dit-elle. « Je suis la maman qui fait des avions et des voitures ». Elle ne veut pas qu'il grandisse en croyant que sa mère était une voleuse.


    Jusqu’en 2014, Cristina Balan était une étoile montante au sein de l’entreprise de voitures électriques aux États-Unis. En hommage à son expertise en ingénierie, ses initiales étaient gravées sur toutes les premières batteries des modèles Tesla S. Durant l'interview sur Zoom avec Zoe Kleinman, elle a fièrement exhibé une coque de batterie devant la caméra. Cristina se souvient d’avoir discuté avec Musk dans la file d’attente de la cantine du personnel et affirme qu’elle était heureuse et réussissait, vivant son rêve après avoir grandi en Roumanie avec une passion de toute une vie pour les voitures.

    Le tournant

    Mais après avoir soulevé des préoccupations concernant la sécurité du freinage des véhicules Tesla en 2014, elle a perdu son emploi. Balan craignait que les tapis ne s'enroulent sous certaines pédales - un défaut de conception simple mais potentiellement mortel - et a indiqué que des clients s'étaient plaints.

    « Si vous ne pouvez pas appuyer sur le frein, quelqu'un d'autre, en dehors d'une Tesla, peut être blessé », a-t-elle expliqué. Ils n'avaient qu'à dire : « Nous sommes conscients que les tapis sont mauvais, enlevez-les des voitures ». Mais les responsables ont rejeté ses préoccupations et sont devenus hostiles, affirme Balan.

    Elle a donc envoyé un courriel à Musk, qui avait directement encouragé les employés à lui faire part de tout souci susceptible d'affecter la réputation de Tesla. « Je lui ai envoyé deux courriels », raconte Balan. « Je lui en ai envoyé un avant mon départ [de Tesla], lui disant que nous étions tous menacés ». Je me disais : « Il veut toujours faire ce qu'il faut pour Tesla ». Mais la démarche a échoué et Balan a perdu son emploi.

    Balan a fait part à BBC News de diverses communications entre elle et Tesla pendant la période où elle travaillait dans cette entreprise. BBC News a fait part de ses revendications à Tesla, mais n'a reçu aucune réponse.

    Le site web de l'entreprise indique : « La sécurité est l'élément le plus important de chaque Tesla » et aussi « Nous concevons nos véhicules pour qu'ils dépassent les normes de sécurité ».

    Nom : cri.png
Affichages : 9510
Taille : 449,5 Ko
    Les initiales CB sur une batterie Tesla Model S, d'après la conception de Cristina Balan

    Accusée par Tesla « d'abus de confiance »

    Cristina a remporté un procès pour licenciement abusif, comme rapporté dans la presse américaine. Cependant, dans une longue déclaration médiatique, Tesla l’a accusée d’avoir utilisé du temps et des ressources de l’entreprise pour un « projet secret », qu’elle [l'entreprise] qualifie d’acte d’abus de confiance - un crime aux États-Unis.

    C’est quelque chose que Cristina nie catégoriquement. Tesla n’a jamais fourni de détails sur l’incident allégué, ni à elle ni au public. L’entreprise n’a pas non plus répondu à la demande de BBC News d’obtenir des informations à ce sujet. Cristina accuse Tesla de diffamation. Et bien qu’elle soit actuellement en rémission d’un cancer du sein de stade 3B, sa plus grande inquiétude est de ne peut-être pas vivre assez longtemps pour voir son dernier jour devant la justice.

    Une expérience vécue par un autre lanceur d'alerte

    Un autre lanceur d'alerte de Tesla, Lukasz Krupski, a affirmé avoir vécu une expérience similaire, sans rapport avec le sujet, après avoir envoyé un courriel à Musk pour lui faire part de ses inquiétudes concernant les conditions de travail au siège de Tesla en Norvège.

    Selon Balan, d'autres membres du personnel de Tesla pourraient avoir « peur de s'exprimer ». Son affaire sera finalement entendue par la Cour d'appel du neuvième circuit de Californie. C'est sa seule chance d'obtenir gain de cause sur le plan professionnel, estime Balan.

    « Je ne veux pas renoncer à ma carrière », dit-elle. « Et je sais que si je ne gagne pas ce procès, mes compétences n'auront aucune importance. Tout le monde regardera ce que Tesla dira de moi, et ma carrière s'envolera. Je ne veux pas de cela ».

    Le style de direction de Musk est notoirement non conventionnel, mais certains de ceux qui ont travaillé pour lui affirment qu'il obtient des résultats. Dolly Singh, qui a travaillé à SpaceX pour Musk entre 2008 et 2013, a déclaré à BBC News qu'il était un « leader incroyable ». « Si ce n'était pas le cas, il n'accomplirait pas les choses qu'il fait », a-t-elle déclaré en 2022. « Oui, c'est épuisant de travailler pour Elon. Mais je pense que c'est un terrain d'expérimentation comme il n'y en a pas d'autre ».

    L'avocat américain Gordon Schnell, du cabinet Constantine Cannon, affirme qu'un nombre croissant de travailleurs du secteur technologique deviennent des lanceurs d'alerte. Les enjeux sont si importants que les produits technologiques ont « un impact considérable sur le monde », explique-t-il.

    « Ils touchent vraiment notre vie à tous », ajoute-t-il. Mais Schnell, qui se spécialise dans la représentation des lanceurs d'alerte, conseille d'explorer toutes les options possibles avant de rendre publique toute réclamation. « Il existe tant de voies protégées dans tant de secteurs différents qu'un lanceur d'alerte peut emprunter pour faire part de ses préoccupations confidentielles aux organismes gouvernementaux compétents qui sont les mieux à même d'y répondre », explique-t-il.

    Conclusion

    Cette affaire soulève des questions éthiques importantes sur la manière dont les entreprises traitent les allégations internes et les préoccupations des employés. La transparence et la communication ouverte sont essentielles pour maintenir la confiance non seulement au sein de l’entreprise mais aussi avec ses clients et le public.

    L’histoire de Cristina pourrait avoir un effet dissuasif sur les futurs lanceurs d’alerte. La peur de représailles ou de diffamation peut empêcher des employés de signaler des problèmes importants, ce qui pourrait avoir des conséquences graves pour la sécurité et le bien-être publics. Son histoire met en lumière les défis auxquels sont confrontés les lanceurs d’alerte et la nécessité d’une plus grande protection et soutien pour ceux qui osent parler. Son cas est un rappel que derrière chaque grand titre se trouve une personne réelle, luttant pour ce qu’elle croit être juste.

    Source : interview

    Et vous ?

    Quelle est votre opinion sur la situation de Cristina Balan et les accusations portées contre elle par Tesla ?
    Pensez-vous que les grandes entreprises technologiques devraient être plus transparentes concernant les préoccupations de sécurité soulevées par leurs employés ?
    Comment les entreprises peuvent-elles équilibrer la protection de leurs secrets commerciaux tout en s’assurant que les problèmes de sécurité légitimes sont abordés ?
    Si vous étiez à la place d’Elon Musk, comment auriez-vous réagi aux préoccupations soulevées par Cristina Balan ?
    Quel impact pensez-vous que cette affaire aura sur la réputation de Tesla et sur la perception du public envers les lanceurs d’alerte ?
    Dans quelle mesure la lutte personnelle de Cristina Balan influence-t-elle votre perception de l’affaire ? Est-ce que cela change votre point de vue sur la crédibilité de ses affirmations ?
    Quelles mesures les entreprises devraient-elles prendre pour soutenir les employés qui traversent des épreuves personnelles graves tout en faisant face à des conflits professionnels ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #13
    Candidat au Club
    Homme Profil pro
    Inscrit en
    Novembre 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations forums :
    Inscription : Novembre 2013
    Messages : 1
    Points : 4
    Points
    4
    Par défaut ce qui passera toujours avant tout
    Dans des entreprises comme tesla portées par la figure de leur fondateur et leader c'est l'égo himalayesque de ce dernier qui aura toujours le pas sur quoi ou qui que ce soit et à n'importe quel prix quoiqu'il dise.

  14. #14
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 452
    Points : 1 968
    Points
    1 968
    Par défaut
    Il est dommage qu'une boîte aussi audacieuse dépende à ce point de l'ego de son créateur. Comme d'habitude dans ce genre d'organisation, les seconds couteaux sont très inférieurs au leader, complètement soumis, ce qui peut expliquer qu'ils aient été incapables de réagir sainement au cas des tapis.

  15. #15
    Nouveau Candidat au Club
    Homme Profil pro
    Responsable d'exploitation informatique
    Inscrit en
    Septembre 2017
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : Algérie

    Informations professionnelles :
    Activité : Responsable d'exploitation informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : Septembre 2017
    Messages : 2
    Points : 0
    Points
    0
    Par défaut
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    Le problème dans ce genre d'affaire est qu'on n'a pas les éléments nécessaires et suffisants afin de bien comprendre de quoi il retourne…

    Nous savons ce que la dame veut et ce qu'elle avance comme preuve pour étayer ses dires, mais nous n'avons pas la version de Tesla, tout au plus des allégations sur comment cette firme maltraite son personnel qui soulève des problématiques que les responsables semble ne pas apprécier… toujours selon le dire des employés déchus…

    Je ne prends pas la défense de la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…

  16. #16
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 946
    Points : 2 055
    Points
    2 055
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    Le problème dans ce genre d'affaire est qu'on n'a pas les éléments nécessaires et suffisants afin de bien comprendre de quoi il retourne…

    Nous savons ce que la dame veut et ce qu'elle avance comme preuve pour étayer ses dires, mais nous n'avons pas la version de Tesla, tout au plus des allégations sur comment cette firme maltraite son personnel qui soulève des problématiques que les responsables semble ne pas apprécier… toujours selon le dire des employés déchus…

    Je ne prends pas la défense de la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…
    Quand Tesla fait dormir ses employés dans l'usine pendant le confinement vous avez besoin de la version de Tesla pour comprendre ? (a noter que l'on a même pas la version de ceux là d'employés, pas assez solides pour nous la donner)
    Quand Tesla falsifie les vidéos et les statistiques de son fsd qu'il envoi tester sur route par les clients eux même, il vous faut aussi la version de Tesla pour peut être trouver une justification satisfaisante?
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  17. #17
    Nouveau Candidat au Club
    Homme Profil pro
    Responsable d'exploitation informatique
    Inscrit en
    Septembre 2017
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : Algérie

    Informations professionnelles :
    Activité : Responsable d'exploitation informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : Septembre 2017
    Messages : 2
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par petitours Voir le message
    Quand Tesla fait dormir ses employés dans l'usine pendant le confinement vous avez besoin de la version de Tesla pour comprendre ? (a noter que l'on a même pas la version de ceux là d'employés, pas assez solides pour nous la donner)
    Quand Tesla falsifie les vidéos et les statistiques de son fsd qu'il envoi tester sur route par les clients eux même, il vous faut aussi la version de Tesla pour peut être trouver une justification satisfaisante?
    Donc, si je comprends bien, Parce que c'est une grosse firme donc elle a forcément tort et tout ce que les employés diront est la vérité vraie ... ?

    " ... falsifier des vidéos ..." ou : " ... Tesla fait dormir ses employés dans l'usine pendant le confinement ... " pour juste se faire une bonne idée, il me semble que durant le confinement, on était tous… confinés !! Pourquoi faire porter le blâme sur Tesla alors que c'est une décision du GOUVERNEMENT de confiner les espaces publics avec interdiction de sortir… que les employés aient été confines n'apparait donc plus comme un acte d'oppression sinon il va falloir demander des comptes aussi au gouvernement…
    Bon, Tesla falsifie des vidéos et des statistiques de son système quel qu'il soit, vous le dites sans citer aucune source afin de vérifier ces dires… ou alors, c'est qu'un parti pris a déjà été pris a priori…

    C'est fou ce qu'on peut être biaisé quand on porte des œillères ...

    Quand on recherche la vérité, il me parait que le minimum est de mener une bonne investigation et d'écouter, d'abord, les déclarations des deux parties en conflit.

    Là, on parle du cas de la femme citée dans l'article, les autres cas ne sont pas inclus dans la discussion, sauf si le but n'est pas de traiter l'information équitablement, mais plutôt inventer des excuses afin de ne pas traiter le cas avec objectivité.

    Jouer sur l'émotionnel n'est surement pas la meilleure manière d'aborder une discussion ou il est demandé de faire preuve d'un minimum de bon sens et d'avoir un minimum de jugeote…

  18. #18
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 511
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 511
    Points : 5 751
    Points
    5 751
    Par défaut
    Tu peux jouer sur les mots mais dans les faits les études ont montré que l'autopilot de Tesla n'est pas du tout à la hauteur, et les réseaux sociaux regorgent de milliers de témoignages dans ce sens, et qu'il y a déjà eu des accidents mortels, principalement du à la bêtise des gens qui ont vraiment cru qu'ils peuvent dormir, regarder un film, faire des jeux vidéos, ou faire l'amour pendant que le FSD conduisait leur Tesla.

    Dans les faits d'autres constructeurs ont un FSD qui est mieux coté que celui de Tesla, le problème de Tesla c'est qu'Elon Musk a fait le buzz, hors maintenant c'est le retour à la réalité : leur voitures sont pourries, elle ne sont pas fiables, certains composants ont étés montés avec du ruban adhésif, les réparations coutent une fortune, Tesla à menti sur l'autonomie réelle, et quand c'est l’hiver ces voitures ne marchent plus, les voitures et les stations de charges tombent en panne, et le FSD Tesla est totalement moisi et dangereux. Donc une fois la Hype passée c'est un désastre.
    En Chine les Tesla ne se vendent plus du tout, car les chinois fabriquent des autos plus fiables et moins chères. Elon ne solde pas seulement le FSD mais aussi le prix de plusieurs modèles, qui ne se vendent plus à cause de la réputation horrible, et du fait que les chinois proposent bien mieux.
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  19. #19
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 449
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 449
    Points : 5 697
    Points
    5 697
    Par défaut
    Tesla n'est pas une marque de voiture fiable, elle assez basse dans les différents classement.
    Et le FSD, il faut être gogo pour croire en la vision de musk (la voiture se conduit toute seul et le FSD permetera quand on l'utilise pas de la transformé en taxis autonome et de gagner de l'argent...)
    un belle échec qui prouve que la hype sur l'ia est bien bullshit, le bot qui remplacera Marcelle le camionneur de C'est Pas Sorcier n'est pas encore née.

    Niveau voiture, je n'ai pas encore trouvé plus rentable qu'acheter une voiture d'occasion, un modèle avec une bonne réputation et l'ou on peut trouver des pieces facilement et pas cher.
    Une Citroën C3, un 206 hdi2.0... on l’achète 5000-6000€, on la garde très longtemps et on la répare pas cher.
    Tant que Peugeot ou Renaud ne seront pas capable de faire une voiture essence/diesel basique familiale à 10000€ max capable de rouler à 130km/h et de faire 500km avec 1 plein, facilement réparable, je n’achèterai pas de voiture neuve.
    Bref j'attends un équivalent à la Lada Niva. On avait la 2Ch il fut un temps...


    seul bémol les ZFE, je suis vignette 4, j'ai du trouver un taff en dehors.

    Quand je vois l'enfer des voiture actuel, que ce soit thermique ou électrique, avec tous les capteurs inutile, les systreme dépollution pour les thermique qui tombe en panne (adblue), les prix exhorbitant pour réparer les voiture electrique, je vais rester sur du vieux diesel encore très longtemps.

    Es ce que quelqu'un a pensez ce que va devenir tesla dans 20ans, je parle du software, quand les serveurs seront down, la 1/2 des capteurs HS, es ce que la voiture pourra encore rouler et passer le contrôle technique ? les batteries seront foutue mais bon admettons.
    je dis cela car ma voiture à 22ans et roule très bien...

    j'envisage pour ma prochaine voiture de devenir un taliban et d'aller en afganistan pour m'acheter une Toyota Corolla, eux au moins savent choisir leurs voitures.

    C'est sur que avec des Teslas jamais les talibans n'aurait pu mettre une raclé magistrale aux américains

  20. #20
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 946
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 946
    Points : 2 055
    Points
    2 055
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    pour juste se faire une bonne idée, il me semble que durant le confinement, on était tous… confinés !! Pourquoi faire porter le blâme sur Tesla alors que c'est une décision du GOUVERNEMENT de confiner les espaces publics avec interdiction de sortir… que les employés aient été confines n'apparait donc plus comme un acte d'oppression sinon il va falloir demander des comptes aussi au gouvernement…
    Si vous ne voyez pas de différence entre confiner les gens (pas ensembles) pour les protéger et Musk qui entasse ses ouvriers dans son usine pour bosser alors on ne peut plus rien pour vous.

    Citation Envoyé par LeQueteur Voir le message
    Bon, Tesla falsifie des vidéos et des statistiques de son système quel qu'il soit, vous le dites sans citer aucune source afin de vérifier ces dires… ou alors, c'est qu'un parti pris a déjà été pris a priori…

    C'est fou ce qu'on peut être biaisé quand on porte des œillères ...
    A qui le dites vous... pas besoin de moi pour donner les sources dont ce fil est rempli

    Citation Envoyé par LeQueteur Voir le message
    Quand on recherche la vérité, il me parait que le minimum est de mener une bonne investigation et d'écouter, d'abord, les déclarations des deux parties en conflit.
    Oui, et il y a aussi les faits qui sont tenaces

    Citation Envoyé par LeQueteur Voir le message
    Là, on parle du cas de la femme citée dans l'article, les autres cas ne sont pas inclus dans la discussion, sauf si le but n'est pas de traiter l'information équitablement, mais plutôt inventer des excuses afin de ne pas traiter le cas avec objectivité.
    Pas de bol, la discussion qui a maintenant pas mal de pages ne parle pas que du cas de cette dame. La question qui m'interpelle ici c'est quelle illusion Musk vous a fait pour voir en lui encore une possibilité de bienveillance face à toutes ces casseroles.

    Citation Envoyé par LeQueteur Voir le message
    Jouer sur l'émotionnel n'est surement pas la meilleure manière d'aborder une discussion ou il est demandé de faire preuve d'un minimum de bon sens et d'avoir un minimum de jugeote…
    Oui, a commencer par lire la discussion et pas juste le dernier poste du rédacteur ainsi que pleins d'autres sources qui racontent la même chose et d'autres choses avec des preuves bien solides...

    Quand à la jugeote vous pouvez en effet l'utiliser, lisez un peu sur la conduite autonome, ses problèmes et enjeux et jugeotez sur le choix de ne laisser que quelques cameras placées aux endroits qui permettent de préserver les choix esthétiques du véhicule ; vous trouverez d'un seul coup moins louche le fait que le FSD ne fait pas le job.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 09h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 09h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 21h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 14h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 03h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo