IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #341
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 200
    Points
    37 200
    Par défaut Test du rappel Autopilot de Tesla - Un sentiment persistant d'insécurité, selon le chroniqueur Geoffrey Fowler
    Voitures autonomes : « En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager »,
    déclare Geoffrey Fowler, chroniqueur technologique

    Geoffrey Fowler, un chroniqueur technologique, partage ses inquiétudes dans un article de blog après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Malgré les assurances de sécurité, Fowler constate que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne que le rappel visait à encourager l'attention des conducteurs en détectant les mains sur le volant, mais son expérience démontre que la voiture peut traverser la ville sans qu'il ait besoin de lever les mains du volant pendant des périodes prolongées.

    Tesla fait face à des problèmes persistants liés à son système Autopilot, malgré un rappel massif de plus de 2 millions de véhicules. Consumer Reports indique que les tests préliminaires révèlent que la solution de Tesla pour surveiller l'attention des conducteurs est insuffisante, permettant aux conducteurs de neutraliser le système et de l'utiliser de manière abusive, créant ainsi des risques pour la sécurité. Bien que Tesla ait publié une mise à jour logicielle en réponse à une enquête fédérale, Consumer Reports estime que les changements apportés ne vont pas assez loin pour prévenir une mauvaise utilisation. Des inquiétudes subsistent quant à la capacité des conducteurs à contourner les contrôles et à utiliser l'Autopilot de manière inappropriée, malgré les modifications apportées par le rappel.

    Nom : teslaB.png
Affichages : 9117
Taille : 206,8 Ko

    Tesla a demandé à la National Highway Traffic Safety Administration (NHTSA) de ne pas divulguer l'implication de ses logiciels Autopilot et Full Self-Driving dans les accidents de la route, alléguant que ces informations relèvent du secret commercial. La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises. Les systèmes Autopilot et Full Self-Driving ont été au centre de controverses, avec des enquêtes en cours sur des accidents, certains mortels, impliquant des véhicules Tesla utilisant ces technologies. Malgré les promesses de conduite autonome de Musk, les logiciels de Tesla sont critiqués pour leurs performances. En juin, on a signalé 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. La NHTSA enquête sur 35 accidents impliquant des systèmes avancés d'aide à la conduite de Tesla depuis 2016, dont 14 ont entraîné des décès.

    Tesla accusée de cacher les accidents liés à son Autopilot

    Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla. La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.

    Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.

    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.

    Selon les données de la NHTSA, les accidents mortels et les blessures graves associés à Autopilot de Tesla ont considérablement augmenté, avec une focalisation particulière sur la technologie Full Self Driving encore en phase bêta. Depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA en cas d'accident impliquant des systèmes de conduite partiellement automatisés, tels que ceux de niveau 2. Les statistiques révèlent que Tesla était impliqué dans les trois quarts de tous les accidents ADAS signalés entre juillet 2021 et mai 2022, totalisant 273 accidents sur 367. De plus, cinq des six décès répertoriés dans les données de juin 2022 étaient associés à des véhicules Tesla. Ces chiffres mettent en évidence une tendance préoccupante qui soulève des inquiétudes quant à la fiabilité et à la sécurité d'Autopilot.

    Critiques envers Tesla et Musk pour un Autopilot jugé trompeur

    Les critiques envers Tesla et Elon Musk s'intensifient, notamment en raison du nom "Autopilot" jugé trompeur par le sénateur américain Edward Markey en 2020. Markey a exhorté Tesla à renommer le système, soulignant son potentiel danger et appelant à la création d'outils de surveillance des pilotes. Tesla a répondu en affirmant avoir pris des mesures pour améliorer la sécurité, notamment en introduisant de nouveaux avertissements.

    Cependant, malgré les affirmations de Musk sur la supériorité de la sécurité des modèles autonomes, les poursuites judiciaires se multiplient. Un juge californien a ordonné que Musk soit interrogé sous serment concernant ses déclarations sur Autopilot, malgré les tentatives de Tesla de discréditer une éventuelle vidéo de Musk comme étant un deepfake. La cour a rejeté cet argument, ordonnant finalement que le PDG de Tesla se présente au tribunal pour une déposition sous serment.

    Geoffrey Fowler, le chroniqueur technologique, a soumis sa Tesla à deux tests de conduite identiques avant et après une mise à jour. Le processus de rappel pour la réparation, signalé comme manquant d'urgence, a révélé des lacunes dans la facilité d'obtention des mises à jour. L'auteur a utilisé la fonction Autosteer, décrite comme une version bêta par Tesla, mais largement disponible. Les essais ont montré que, malgré le rappel, Autosteer continuait de s'activer dans des conditions non appropriées, y compris en dehors des autoroutes et à travers des intersections avec des panneaux d'arrêt, provoquant des situations dangereuses.

    Les avertissements visuels ont été améliorés, mais l'auteur s'interroge sur l'impact potentiel des distractions d'écran sur la sécurité routière. Les résultats des tests soulèvent des questions sur la nécessité d'une régulation plus stricte de la fonction Autosteer par la NHTSA et suscitent des préoccupations quant à la conception et à la sécurité du logiciel d'Autopilot de Tesla.

    Geoffrey a exprimé des préoccupations quant à l'inaction de la NHTSA (National Highway Traffic Safety Administration) face aux problèmes de sécurité liés aux mises à jour logicielles de Tesla. Le sénateur Richard Blumenthal appelle à des mesures plus strictes de la part de Tesla et demande à la NHTSA d'agir contre Elon Musk. La NHTSA déclare que la responsabilité de développer des correctifs de sécurité incombe au fabricant, et elle n'approuve pas les solutions à l'avance.


    Le centre de recherche de l'agence prévoit des tests sur les véhicules Tesla rappelés, mais il n'est pas clair quand cela se produira. Le texte souligne la nécessité de réglementations plus rigoureuses pour les technologies automobiles, comparant la situation aux examens préalables des applications pour téléphones mobiles. Le sénateur Markey conclut en appelant à des solutions de sécurité plus intelligentes pour les voitures du futur.

    Geoffrey souligne le besoin d'une réglementation plus stricte et d'une supervision gouvernementale plus rigoureuse, appelant à une limitation de la fonction Autosteer aux autoroutes à accès limité. Finalement, il interroge sur la responsabilité du gouvernement et de la NHTSA (Administration nationale de la sécurité routière) dans la supervision des mises à jour logicielles des véhicules autonomes et appelle à des mesures plus strictes pour garantir la sécurité publique dans cette ère émergente de véhicules autonomes.

    Source : Geoffrey Fowler's blog post

    Et vous ?

    Quel est votre avis sur le sujet ?
    L'analyse de Geoffrey Fowler est-elle pertinente ?
    Êtes-vous pour ou contre les voitures autonomes ?
    Partagez-vous le sentiment d'insécurité persistant de Geoffrey Fowler au sujet des Tesla ?

    Voir aussi :

    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents

    Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige, de quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #342
    Membre éclairé
    Homme Profil pro
    Webdesigner
    Inscrit en
    Juin 2014
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Hautes Pyrénées (Midi Pyrénées)

    Informations professionnelles :
    Activité : Webdesigner
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Juin 2014
    Messages : 419
    Points : 837
    Points
    837
    Par défaut
    La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
    Sommes-nous dans un mode orwellien ?

    Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?

  3. #343
    Membre éclairé
    Homme Profil pro
    Urbaniste
    Inscrit en
    Août 2023
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : Août 2023
    Messages : 386
    Points : 794
    Points
    794
    Par défaut
    Non c'est le fonctionnement normal des USA, et de la privatisation en général.

    Les entreprises financent les autorités qui les régulent,
    ce sont les entreprises qui évaluent et rapportent sur la qualité
    et la nocivité de leurs produits.

    La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
    Ce qui fait dire,
    Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
    Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
    à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
    dans ces articles constituant.

    En résumé, tout fonctionne comme il se doit
    puisque c'est ainsi que les choses ont été faites pour fonctionner,
    même si par ailleurs,
    ça semble aberrant.

  4. #344
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 953
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 953
    Points : 2 068
    Points
    2 068
    Par défaut
    La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
    Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
    Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  5. #345
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 633
    Points : 201 220
    Points
    201 220
    Par défaut Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving
    Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving.
    « On nous a vendu un faux sentiment de sécurité », a déclaré sa veuve, rappelant que Musk a déclaré que la voiture pouvait « se conduire toute seule »

    Hans von Ohain, un recruteur chez Tesla et un admirateur du PDG Elon Musk de 33 ans, aurait perdu la vie dans un accident de voiture au Colorado en 2022 impliquant le système de conduite autonome de Tesla, appelé Full Self-Driving (FSD). Selon son ami et passager Erik Rossiter, qui a survécu à la collision, von Ohain avait activé le FSD sur sa Tesla Model 3 lorsqu’il a quitté la route et heurté un arbre, provoquant une explosion et un incendie. Bien que le jeune père de famille ait consommé de l'alcool avant l'accident mortel, les détectives ont élargi leur enquête après qu'il est apparu qu'il ne s'agissait pas d'un cas ordinaire de conduite en état d'ébriété.

    « Indépendamment de l'état d'ébriété de Hans, Musk a prétendu que cette voiture pouvait se conduire toute seule et qu'elle était essentiellement meilleure qu'un humain », a déclaré Nora Bass, la veuve de von Ohain. « On nous a donné un faux sentiment de sécurité ».


    Un employé de Tesla (et fan « dévoué » de son PDG Elon Musk) nommé Hans von Ohain a été tué après que sa Model 3 se soit écrasée contre un arbre et ait pris feu en 2022. Son ami et passager Erik Rossiter, qui a survécu à la collision, a depuis déclaré au Washington Post que Hans von Ohain avait activé la fonction de Full Self-Driving de la voiture au moment de l'accident mortel.

    Si cette hypothèse est confirmée, il pourrait s'agir du premier décès connu lié à cette fonction, une option de 15 000 dollars qui a déjà attiré l'attention des autorités de régulation.

    Le quotidien a également confirmé que le véhicule était équipé de cette fonction (von Ohain l'avait reçue gratuitement grâce à sa réduction d'employé) et sa veuve a également déclaré qu'il l'utilisait fréquemment.

    L’accident s’est produit près de Denver, dans le Colorado, alors que les deux amis revenaient d’une partie de golf. Rossiter a déclaré au Washington Post que le FSD avait fait plusieurs écarts pendant le trajet aller et que von Ohain avait dû reprendre le contrôle à plusieurs reprises. Ils avaient également consommé de l’alcool pendant la journée, mais Rossiter a affirmé que von Ohain semblait sobre et maître de lui au moment de monter dans la voiture pour le retour.

    Une autopsie de von Ohain a révélé qu’il avait un taux d’alcoolémie de 0,26 - plus de trois fois la limite légale. La police de l’État du Colorado a conclu que l’intoxication était le principal facteur à l’origine de l’accident, mais elle a également mené une enquête sur le rôle éventuel du FSD de Tesla. Le sergent Robert Madden, qui a dirigé l’enquête, a observé des traces de pneus en roulement sur le lieu de l’accident, ce qui signifie que le moteur a continué à envoyer de la puissance aux roues au moment de l’impact. Il n’y avait pas non plus de traces de freinage.

    Madden a déclaré : « Étant donné la dynamique de l’accident et la façon dont le véhicule a quitté la route sans preuve d’une manœuvre soudaine, cela correspond à la fonctionnalité [d’assistance à la conduite] ». Il a ajouté qu’il n’avait pas accès aux journaux de bord du véhicule, qui auraient pu confirmer ou infirmer l’utilisation du FSD.

    La veuve de von Ohain, Nora Bass, veut que Tesla assume sa responsabilité dans la mort de son mari : « Peu importe à quel point Hans était ivre, Musk a affirmé que cette voiture pouvait se conduire elle-même et qu’elle était essentiellement meilleure qu’un humain. On nous a vendu un faux sentiment de sécurité ». Elle n’a pas réussi à trouver un avocat pour prendre l’affaire, car son mari était ivre.

    Nom : voiture.png
Affichages : 6536
Taille : 332,8 Ko

    L'entreprise tente de se dédouaner

    Malgré le marketing trompeur de l'entreprise, les véhicules Tesla sont encore loin d'être capables de se conduire tout seuls. Sur son site web, l'entreprise avertit les conducteurs qu'ils doivent être « prêts à prendre des mesures immédiates, y compris le freinage » :

    Les fonctionnalités Autopilot, Enhanced Autopilot et Full Self-Driving sont destinées à un conducteur attentif, qui a les mains sur le volant et qui est prêt à prendre le contrôle à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, votre véhicule n’est pas autonome avec les fonctionnalités actuellement actives[...].

    Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
    Full Self-Driving (FSD) développe le logiciel d'aide à la conduite Autopilot de l'entreprise, et est conçu pour prendre des décisions au nom de l'utilisateur tout en conduisant à la fois sur les autoroutes et dans les rues animées des villes.

    Alors que la National Highway Traffic Safety Administration enquête déjà sur Autopilot à la suite d'une série d'accidents dans lesquels des Tesla ont percuté des véhicules d'intervention d'urgence arrêtés avec des sirènes ou des fusées éclairantes, aucun accident mortel n'a été définitivement lié à la FSD - bien que la mort de von Ohain, comme le rapporte Washington Post, semble assurément suspecte.

    Selon une analyse du Washington Post de l'année dernière, le nombre d'accidents mortels impliquant le mode Autopilot a bondi. Sur plus de 700 accidents impliquant la fonctionnalité depuis 2019, au moins 17 ont été mortels.

    Qui est responsable ?

    Néanmoins, même si l'alcool n'était pas en cause, des experts ont souligné que le marketing trompeur de Tesla pouvait donner aux conducteurs un faux sentiment de sécurité au volant.

    Malgré les affirmations démesurées de Tesla au sujet de cette technologie, Tesla maintient que sa fonction FSD est encore en "bêta", ce qui signifie qu'elle est toujours en cours de développement.

    Sa prise de décision sur la route peut être très suspecte. Dans une vidéo téléchargée la semaine dernière, le propriétaire d'une Tesla a dû neutraliser la fonction après que la voiture a tenté de tourner brusquement à gauche, se dirigeant tout droit vers les véhicules venant en sens inverse. Nous avons également vu des vidéos de Teslas avec la fonction activée ignorant des feux rouges, percutant une voiture de police et se débattant dans la neige.

    La mort de Von Ohain soulève d'importantes questions éthiques, notamment en ce qui concerne la culpabilité. Le marketing trompeur de Tesla est-il à blâmer, ou s'agit-il d'un cas d'imprudence de la part d'un conducteur ?

    Sa veuve a déclaré au journal que, personnellement, elle trouvait la fonction trop imprévisible et « saccadée ».

    L'enjeu est de taille, puisque Musk a déclaré en 2022 que la FSD est « la différence entre une Tesla qui vaut beaucoup d'argent et une Tesla qui n'en vaut pratiquement pas du tout ». Même si le développement de cette fonction bénéficie de tout son soutien, le logiciel est encore loin d'atteindre son objectif déclaré d'autonomie totale.

    Musk a promis à plusieurs reprises que Tesla atteindrait le niveau 5 d'autonomie en moins d'un an, un point auquel une voiture est entièrement autonome et n'a pas besoin de volant ou de pédale de frein. Cependant, aujourd'hui, la fonction n'a toujours pas dépassé le niveau 2 d'autonomie, qui exige que le conducteur prenne le contrôle à tout moment.

    Le FSD de Tesla qualifié « d'escroquerie flagrante »

    Jason Hughes, un hacker bien connu dans le monde Tesla, a qualifié le FSD de Tesla « d'escroquerie flagrante ». Il a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.

    En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

    Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

    Nom : jason.png
Affichages : 2221
Taille : 18,1 Ko

    Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

    Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.

    Sources : Washington Post, Tesla

    Et vous ?

    Que pensez-vous du FSD de Tesla ? Est-ce une technologie révolutionnaire ou dangereuse ?
    Qui devrait être tenu responsable des accidents impliquant le FSD de Tesla ? Le conducteur, Tesla, ou les deux ?
    Faites-vous confiance à la conduite autonome ? Seriez-vous prêt à utiliser le FSD de Tesla ou un système similaire ?
    Quels sont les avantages et les inconvénients de la conduite autonome pour la société et l’environnement ?
    Quelles sont les limites de la conduite autonome ? Comment les réguler et les contrôler ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #346
    Membre averti
    Homme Profil pro
    amateur
    Inscrit en
    Juillet 2015
    Messages
    90
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : Juillet 2015
    Messages : 90
    Points : 362
    Points
    362
    Par défaut
    Citation Envoyé par grunk Voir le message
    Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
    ...et remplacer un ancien bug par un nouveau.
    C'est ce que font la plupart des mises à jour.

  7. #347
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 490
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 490
    Points : 5 846
    Points
    5 846
    Par défaut
    On nous a vendu un faux sentiment de sécurité
    aux français aussi, bienvenue au club

  8. #348
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 633
    Points : 201 220
    Points
    201 220
    Par défaut Full Self-Driving de Tesla obtient la pire note globale en matière de sécurité
    Un groupe de travail sur la sécurité des véhicules teste 14 systèmes de conduite partiellement automatisée. Aucun n'obtient la note "bon",
    et Full Self-Driving de Tesla obtient la pire note globale

    Les systèmes d'automatisation partielle des véhicules capables d'effectuer certaines fonctions sont censés simplifier la conduite et la rendre plus sûre, mais les résultats d'une nouvelle étude contredisent les affirmations des constructeurs automobiles. Sur les 14 systèmes testés, aucun n'a obtenu la mention "bon".

    Dans un monde où la sécurité automobile est primordiale, les résultats d’une récente étude menée par l’Insurance Institute for Highway Safety (IIHS) sont préoccupants. L’IIHS, un groupe indépendant non lucratif dédié à la réduction des décès, des blessures et des dommages matériels résultant d’accidents de la route, a testé 14 systèmes de conduite automatisée partielle. Ces systèmes, qui comprennent des fonctions telles que le régulateur de vitesse adaptatif, la direction coopérative, l’assistance au maintien de la trajectoire, les changements de voie automatisés et les systèmes qui permettent parfois au conducteur de lâcher le volant, sont censés rendre nos expériences de conduite plus simples et plus sûres.

    Cependant, aucun des systèmes testés n’a reçu la note “bon”. Seul un système a été jugé “acceptable”, deux ont été classés comme “marginaux” et les autres ont été qualifiés de “pauvres”. Parmi les systèmes évalués, celui de Tesla, le Full Self-Driving (Beta) Version 2023.7.10, a reçu la pire évaluation globale, avec une note “pauvre” dans six catégories et “acceptable” dans les deux autres.

    Nom : require.png
Affichages : 8117
Taille : 60,4 Ko

    Les résultats

    L'IIHS a évalué les caractéristiques des véhicules en fonction de la surveillance du conducteur, des rappels d'attention, des procédures d'urgence et d'autres aspects de la conception du système, leur attribuant une note bonne, acceptable, marginale ou médiocre en fonction de leurs mesures de protection.

    Parmi les exemples de bonnes mesures de protection, citons la surveillance du regard et de la position des mains du conducteur, l'utilisation de plusieurs types d'alertes progressives pour attirer l'attention du conducteur et les changements de voie automatisés déclenchés ou confirmés par le conducteur. Aucun des 14 systèmes n'a obtenu une bonne note : Un seul a été jugé acceptable, deux ont été qualifiés de marginaux et les autres ont été jugés "médiocres".

    Nom : rate_1.png
Affichages : 1930
Taille : 11,7 Ko
    Nom : rate_2.png
Affichages : 1941
Taille : 11,5 Ko

    Les systèmes de BMW, Ford, General Motors, Genesis, Lexus, Mercedes-Benz, Nissan, Tesla et Volvo ont tous été testés par l'IIHS. Le système Lexus Teammate with Advanced Drive a été le seul à être jugé acceptable, bien qu'un autre système de la société, le régulateur de vitesse dynamique à radar Lexus avec assistance au suivi de voie, ait reçu une note médiocre. Le Super Cruise de GM et le ProPilot Assist de Nissan sont les deux systèmes jugés marginaux.

    La version 2023.7.10 (bêta) du système d'autoguidage intégral de Tesla a reçu la plus mauvaise note. Son système a été jugé médiocre dans six catégories et acceptable dans les deux autres. Le système Autopilot de Tesla s'est à peine amélioré, recevant une bonne note pour le changement de voie au lieu d'une mauvaise.

    L'un des tests consistait à couvrir le visage du conducteur avec une étamine pour voir si un système pouvait être activé lorsque le visage d'une personne était masqué. L'IIHS a également recouvert des caméras de feutre pour une autre évaluation et a fixé des poids au volant pour simuler les mains d'un conducteur afin d'essayer de tromper les systèmes.

    Cette étude souligne l’importance de la prudence lors de l’utilisation de systèmes de conduite automatisée partielle et met en évidence la nécessité d’améliorations significatives pour garantir la sécurité des conducteurs et des passagers sur nos routes.

    Tesla et la controverse en 2023

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving

    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, professeure au Collège d'ingénierie et d'informatique de l'Université George Mason, a déclaré que l'augmentation des accidents de Tesla était troublante.

    « Tesla connaît des accidents plus graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré après la publication des statistiques. L'une des causes probables, a-t-elle déclaré, est le déploiement élargi au cours de la dernière année et demie de Full Self-Driving, qui apporte l'assistance au conducteur dans les rues urbaines et résidentielles. « Le fait que… n'importe qui et tout le monde peut l'avoir. … Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

    Cummings a déclaré que le nombre de décès par rapport au nombre total d'accidents était également une préoccupation.

    Il faut rappeler qu'il n'est pas clair si les données capturent chaque accident impliquant les systèmes d'assistance à la conduite de Tesla. Les données de la NHTSA incluent certains incidents où il est «inconnu» si Autopilot ou Full Self-Driving étaient utilisés.

    Tesla vous attaquera en justice pour 50 000 $ si vous essayez de revendre votre Cybertruck au cours de la première année

    Tesla a ajouté une nouvelle section controversée à ses conditions d'achat qui interdit aux clients qui recevront les premiers Cybertruck de revendre leurs véhicules au cours de la première année. Les clients qui envisageront néanmoins de la faire devront d'abord obtenir l'autorisation de Tesla, sans quoi la société d'Elon Musk se réserve le droit de les poursuivre en justice et pourrait leur réclamer des dommages-intérêts pouvant aller jusqu'à 50 000 dollars. Tesla n'autorise pas non plus le transfert gratuit de la fonction Autopilot à un propriétaire qui a acheté un véhicule d'occasion, affirmant que celui-ci ne peut pas utiliser les fonctions pour lesquelles il n'a pas payé.

    Tesla menace de faire appel à des personnes chargées de saboter les grèves

    Les entreprises de véhicules autonomes sont dans la tourmente et l'industrie se réorganise

    Les entreprises de véhicules sans conducteur ont été confrontées ces dernières années à une série de problèmes qui ont eu un impact important sur leurs activités. En 2023, par exemple, les constructeurs de véhicules autonomes ont fait l'objet d'un examen minutieux en raison de problèmes de sécurité. Cruise, la branche de General Motors spécialisée dans les véhicules autonomes, a été contrainte d'arrêter complètement ses activités, et Tesla a lancé un rappel massif de 2 millions de véhicules en raison de problèmes liés à son système de conduite autonome Autopilot. Les régulateurs travaillent également sur des règles strictes pour les véhicules autonomes.


    À la fin de l'année dernière, Cruise est passé presque du jour au lendemain de l'une des plus grandes opportunités commerciales de General Motors à une situation de plus en plus délicate. Cruise a fait face à une vague de problème et d'enquêtes déclenchées par un accident survenu le 2 octobre dans lequel un piéton à San Francisco a été traîné sur environ six mètres par l'une de ses voitures autonomes après que la personne a été heurtée par un autre véhicule. Les enquêtes sur l'incident sont en cours. Depuis, la flotte de robotaxis de Cruise a été immobilisée, les autorités ayant déclaré que ces voitures ne sont pas sans danger pour les usagers de la route.

    Mais encore, la direction de Cruise a été vidée de sa substance : ses cofondateurs ont démissionné et neuf autres dirigeants ont été évincés. La société a licencié 24 % de son personnel. En outre, General Motors réduit massivement les dépenses et les plans de croissance de l'entreprise, notamment en interrompant la production d'un nouveau robotaxi. General Motors avait de grandes ambitions pour dépasser Tesla dans la production de véhicules électriques, la technologie de conduite autonome, et peut-être d'autres domaines, mais selon des personnes au fait des discussions au sein de l'entreprise, l'un après l'autre, ces ambitions sont désormais reconsidérées.

    Après une décennie passée à suivre Elon Musk et Tesla, les constructeurs automobiles commencent à comprendre que, tout comme l'adoption des véhicules électriques, l'augmentation des niveaux d'automatisation de la conduite n'est pas nécessairement ce que veulent les clients. Les "innovateurs" et "les adopteurs précoces" peuvent aimer les logiciels de conduite autonome, mais ce n'est pas le cas de la majorité des consommateurs, qui ne veulent certainement pas payer un abonnement mensuel pour des fonctions qui rendent la conduite plus difficile et qui les rendent responsables des conséquences des décisions prises par un logiciel de conduite.

    Source : IIHS

    Et vous ?

    Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
    Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
    Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
    Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
    Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
    Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #349
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 953
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 953
    Points : 2 068
    Points
    2 068
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
    on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

    Citation Envoyé par Stéphane le calme Voir le message
    Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
    Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
    Citation Envoyé par Stéphane le calme Voir le message
    Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
    Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
    Citation Envoyé par Stéphane le calme Voir le message
    Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
    1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
    2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
    3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
    4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
    5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
    6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
    7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

    Citation Envoyé par Stéphane le calme Voir le message
    Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
    bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

    Citation Envoyé par Stéphane le calme Voir le message
    Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
    en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  10. #350
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 422
    Points : 9 937
    Points
    9 937
    Par défaut
    Citation Envoyé par petitours Voir le message
    Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
    Musk aurait-il racheter Boeing ?
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  11. #351
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 200
    Points
    37 200
    Par défaut Le portrait d'elon musk par Andrej Karpathy : vision et realisation dans l'industrie automobile
    Le portrait d'elon musk par Andrej Karpathy : vision et realisation dans l'industrie automobile,
    il souligne la vision de rendre les véhicules électriques et autonomes accessibles au grand public

    Andrej Karpathy, ancien responsable du pilote automatique chez Tesla et chercheur de renom dans le domaine de l'intelligence artificielle, a récemment partagé ses réflexions sur Elon Musk, le magnat de la technologie et PDG de Tesla. Karpathy, qui a travaillé étroitement avec Musk pendant son mandat chez Tesla, a exprimé son admiration pour le visionnaire controversé.

    Dans une récente interview, Karpathy a loué l'approche audacieuse de Musk en matière de technologie et d'innovation. Il a souligné l'impact de Musk sur l'industrie automobile, notamment sa vision de rendre les véhicules électriques et autonomes accessibles au grand public. Karpathy a également abordé la relation complexe entre lui-même et Musk, soulignant à la fois les défis et les avantages de travailler aux côtés d'une personnalité aussi exigeante et visionnaire. Il a évoqué les moments de tension et de pression intense, mais a également souligné l'inspiration et la motivation qu'il a tirées de cette collaboration.


    Nom : Elo.jpg
Affichages : 8280
Taille : 43,7 Ko

    En parlant de la récente controverse entourant Musk et ses diverses entreprises, Karpathy a pris un ton plus nuancé. Il a reconnu que Musk était un personnage polarisant, mais a également souligné son engagement envers des objectifs ambitieux et sa détermination à les réaliser, en dépit des obstacles. En fin de compte, Karpathy a exprimé sa gratitude envers Musk pour l'opportunité de travailler sur des projets révolutionnaires chez Tesla et pour la chance de contribuer à façonner l'avenir de la technologie automobile et de l'IA. Bien que les deux hommes puissent avoir des perspectives différentes sur certains sujets, Karpathy a clairement indiqué qu'il respectait profondément le leadership et la vision de Musk dans le domaine de la technologie.

    Le responsable de l'intelligence artificielle (IA) et de l'Autopilot chez Tesla, Andrej Karpathy, a révélé le 13 juillet 2022 qu'il avait quitté son poste au sein du constructeur de véhicules électriques. Sur Twitter, Karpathy a exprimé sa gratitude pour ses cinq années passées chez Tesla et a déclaré que cette décision de partir avait été difficile. Il a également souligné les progrès réalisés par l'équipe d'Autopilot au fil des ans, passant de la simple gestion de voie aux défis plus complexes de la conduite en milieu urbain.

    Le départ de Karpathy intervient après la fermeture d'un bureau de Tesla à San Mateo, en Californie, où des équipes travaillaient sur l'annotation des données pour améliorer les systèmes d'assistance à la conduite de l'entreprise. Bien qu'il n'ait pas de plans concrets pour l'avenir, Karpathy a exprimé son intention de consacrer plus de temps à ses passions à long terme, notamment le travail technique en IA, l'open source et l'éducation.

    En août 2021, la National Highway Traffic Safety Administration (NHTSA), le département américain de la sécurité routière, a ouvert une enquête sur la fonction Autopilot de Tesla après que 11 accidents impliquant des Tesla se sont produits avec des véhicules d'urgence. En fin de compte, Tesla n'a pas encore pu réaliser la promesse de Elon Musk faite en 2016, qui garantissait une voiture autonome capable de conduire de Los Angeles à New York sans intervention humaine d'ici la fin de 2017, et réitérée en janvier de cette année.

    Un analyste a exprimé son scepticisme face aux déclarations d'Elon Musk, le comparant à un milliardaire fictif vantant un produit impossible à développer. Il a souligné la réputation de Musk de fixer des délais ambitieux mais souvent irréalistes. En 2019, Musk a levé des milliards de dollars pour Tesla en promettant 1 million de voitures prêtes pour le service de robotaxi d'ici fin 2020, une promesse qui n'a pas été réalisée. Bien que Tesla propose des fonctionnalités d'aide à la conduite telles que le régulateur de vitesse adaptatif, l'assistance au maintien dans la voie et la navigation automatisée, même son système de conduite autonome le plus avancé, appelé système Beta d'auto-conduite intégrale, nécessite la vigilance d'un conducteur humain.

    Le départ d'Andrej Karpathy de Tesla survient au moment où l'entreprise a annoncé le licenciement de 229 employés chargés de l'annotation des données de son équipe Autopilot, ainsi que la fermeture du bureau de San Mateo, en Californie, où ils travaillaient. La plupart de ces travailleurs occupaient des postes peu qualifiés, notamment l'étiquetage des données de l'Autopilot, consistant à vérifier si l'algorithme de Tesla identifie correctement les objets. Karpathy, en tant que directeur principal de l'IA, travaillait au siège social de Tesla à Palo Alto, en Californie, et relevait directement d'Elon Musk.

    Après avoir annoncé son départ d'OpenAI, société mère de ChatGPT, Andrej Karpathy, ancien responsable des voitures automatiques de Tesla et éminent chercheur scientifique, semble avoir vidé son agenda, ce qui suscite l'envie d'Elon Musk. Karpathy a partagé sur X une capture d'écran de son calendrier vide, provoquant une réaction d'admiration de la part du PDG de Tesla. Musk a promis de ne pas acquérir de sociétés constituées dans le Delaware pour éviter des litiges. Le profil LinkedIn de Karpathy révèle son impressionnant parcours académique, notamment des études à Stanford et un stage chez Google DeepMind AI.

    Les départs et retours d'Andrej Karpathy : entre Openai et Tesla, une saga de l'IA

    Andrej Karpathy, ancien directeur de l'IA chez Tesla, a récemment été invité dans le podcast de Lex Fridman, où il a abordé divers sujets, notamment son départ du constructeur de véhicules électriques. Au cours de la discussion avec Fridman, Karpathy a laissé entendre qu'il était ouvert à un « Acte 2 » chez Tesla, surtout alors que l'entreprise se trouve au seuil de quelque chose de grand avec Optimus.

    « Il est évident que j'aime beaucoup l'entreprise. J'adore Elon. J'adore Tesla. C'était difficile de partir. J'aime l'équipe. En fait, je serais vraiment intéressé à y revenir, peut-être à un moment donné. Travailler sur Optimus, travailler sur l'AGI chez Tesla. Je pense que Tesla va réaliser des choses incroyables.

    « C'est essentiellement comme une entreprise de robotique à grande échelle, avec un tas de talents internes pour réaliser des choses incroyables. Et je pense que les robots seront incroyables. Je pense que le transport autonome sera incroyable. Tout cela se passe chez Tesla. C'est juste une organisation vraiment incroyable. Donc, en faire partie et l'aider, j'ai beaucoup apprécié... Je suis heureux de potentiellement, à un moment donné, revenir pour un 'Acte 2', » a déclaré Karpathy.

    Elon Musk a répondu à un extrait de l'interview de Fridman avec l'ancien directeur de l'IA de Tesla, notant que « Andrej sera toujours le bienvenu chez Tesla. » Avec cela à l'esprit, et avec le travail sur Optimus probablement en cours d'intensification dans un avenir proche, le second acte d'Andrej Karpathy chez Tesla pourrait venir plus tôt que prévu.

    Musk et Karpathy semblent définitivement avoir maintenu leur amitié après le départ de l'ancien directeur de l'IA de Tesla. Lors de l'AI Day 2022, Musk a personnellement fait une blague à Karpathy, qui a fini par boire un peu trop à cause de la plaisanterie du PDG de Tesla sur le « Logiciel 2.0 ».

    Son départ de Tesla pour OpenAI, puis son retour, ont suscité la controverse, notamment en raison de son rôle clé chez OpenAI et des préoccupations quant à d'éventuels conflits d'intérêts. Son expertise a été particulièrement précieuse pour Tesla dans le développement de l'IA pour le système Autopilot. Son départ récent d'OpenAI pour la deuxième fois a alimenté les spéculations sur ses futurs projets, notamment en tant qu'influenceur sur YouTube. Bien que ses responsabilités aient été transférées, son départ laisse un vide potentiellement significatif au sein d'OpenAI.

    Andrej Karpathy, membre fondateur d'OpenAI en 2015 aux côtés de Sam Altman et Elon Musk, a récemment annoncé son départ de la société pour se consacrer à des projets personnels, marquant ainsi son deuxième départ de la start-up. Avec une expertise reconnue en informatique et en intelligence artificielle, Karpathy est célèbre pour ses contributions dans les domaines de l'apprentissage profond, du traitement automatique du langage naturel et de la vision par ordinateur.

    Détenteur d'un doctorat en informatique de l'Université de Stanford, Karpathy a également travaillé chez Google DeepMind et Google Research avant de rejoindre OpenAI en tant que chercheur scientifique, où il s'est concentré sur des sujets tels que le deep learning pour les modèles d'IA générative et le deep reinforcement learning.


    Après son premier départ d'OpenAI en 2017, Karpathy a rejoint Tesla, dirigée par Elon Musk, en tant que directeur de l'IA et de l'équipe de vision par ordinateur d'Autopilot jusqu'en juillet 2022. Il partage régulièrement son expertise sur sa chaîne YouTube et les réseaux sociaux, où il explique le fonctionnement de l'IA et des LLM.

    Annonçant son retour chez OpenAI il y a un an sur Twitter, Karpathy a maintenant confirmé son départ récent de la société sur cette même plateforme. Il a clarifié qu'il s'agissait d'une décision personnelle et que ses responsabilités avaient été transférées à un autre chercheur principal au sein de l'entreprise. Actuellement, Karpathy se concentre sur ses projets personnels, ce qui a conduit certains à spéculer sur un éventuel retour chez Tesla. Cependant, il a récemment partagé sur GitHub un projet lié à l'algorithme BPE, suggérant qu'il pourrait explorer d'autres domaines de l'IA dans ses travaux futurs.

    Source : vidéo

    Et vous ?

    Quel est votre avis sur le sujet ?

    Selon vous, en quoi les moments de tension et de pression intense ont-ils influencé le travail de Karpathy chez Tesla ?

    Quelles sont votre avis les sources d'inspiration et de motivation que Karpathy mentionne dans sa collaboration avec Musk ?

    Voir aussi :

    Andrej Karpathy, responsable de l'IA chez Tesla, annonce qu'il quitte l'entreprise, après un licenciement de 229 employés de l'Autopilote par Elon Musk

    Tesla a surveillé ses employés sur Facebook avec l'aide d'une entreprise de relations publiques lors de la poussée syndicale de 2017
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #352
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    659
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 659
    Points : 11 925
    Points
    11 925
    Par défaut Le logiciel Full Self-Driving des véhicules Tesla continue de heurter le trottoir au moment de tourner
    Le Full Self-Driving continue de heurter le trottoir, les propriétaires de Tesla qui l'essaient pour la première fois constatent des dégâts après que leur voiture a heurté le trottoir en tournant

    Tesla a récemment lancé une période d'essai d'un mois de la fonction Full Self-Driving (FSD) pour tous les véhicules compatibles de sa flotte. Mais un grand nombre des propriétaires de Tesla qui essaient la fonction pour la première fois ont eu des critiques acerbes envers la technologie et affirment qu'elle n'est pas à la hauteur de leur espérance. Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving. Des contenus partagés sur les plateformes de médias sociaux montrent les dégâts causés aux pare-chocs et aux roues par les mauvaises performances de technologie de Tesla.

    L'Autopilot de Tesla est un système avancé d'aide à la conduite (ADAS) qui peut assister les conducteurs dans les tâches de conduite dynamique comme la direction, le freinage et l'accélération. Tesla décompose l'Autopilot en deux fonctions appelées Traffic-Aware Cruise Control et Autosteer. L'Autopilot est gratuit et est intégré à tous les véhicules Tesla, mais l'entreprise vend également une version améliorée appelée Full Self-Driving (FSD). Tesla affirme que les voitures équipées du FSD seront capables de se conduire seules presque partout avec une intervention minimale de la part des conducteurs et s'amélioreront continuellement.

    Cependant, le FSD bénéficie d'une mauvaise presse depuis son introduction en 2016. Le FSD est souvent impliqué dans des accidents de la route, mineurs comme graves, et selon les experts, la technologie fait l'objet d'un battage médiatique qui exagère ses capacités réelles. Malgré les nombreuses mises à jour apportées par Tesla au fil des années, le logiciel est toujours considéré comme un système de conduite autonome de niveau 2 et serait moins performant que les systèmes rivaux de conduite autonome tels que BlueCruise de Ford et Super Cruise de General Motors. Le FSD serait classé à la troisième place sur le marché.

    La dernière version du FSD a reçu un accueil positif de la part des anciens utilisateurs. Mais alors que le constructeur automobile a lancé une période d'essai d'un mois pour tous les véhicules de sa flotte capables de l'utiliser, d'autres conducteurs qui conduisent pour la première fois ont donné leur avis, et le logiciel n'est peut-être pas à la hauteur des espérances de tout le monde. Il a été rapporté avec insistance que les véhicules contrôlés par le FSD heurtent très souvent le trottoir lorsqu'ils essaient de tourner. Selon les rapports, ce comportement du logiciel laisse parfois des dégâts importants sur certaines parties des véhicules.

    Plus précisément, de nombreux propriétaires de Tesla affirment avoir constaté des éraflures sur les pare-chocs et les pneus dus à des chocs contre le trottoir après avoir utilisé le FSD. Dans des messages publiés en ligne, ils ont déclaré que le FSD sert trop les bordures de trottoir lorsqu'il tourne. Des personnes prétendant avoir installé la version d'évaluation ont publié des photos et des vidéos de leurs voitures mordant le trottoir alors que le logiciel était censé être activé. Un utilisateur a montré que Summon, une fonction qui a longtemps été critiquée pour avoir heurté des objets stationnaires, ne s'est pas amélioré depuis.

    « Je l'utilise depuis trois jours et il m'a convaincu que je n'en avais pas besoin. J'ai dû intervenir trop souvent pour éviter le trottoir ou une voiture garée dans la rue », a déclaré un utilisateur sur Reddit. Un utilisateur dont les roues auraient subi des dégâts a partagé sur Reddit une vidéo de sa voiture heurtant un trottoir. La vidéo montre la voiture heurtant un trottoir au moment de prendre un virage et une photo d'un enjoliveur endommagé à la suite de l'impact. Un autre utilisateur de X a tagué le PDG Elon Musk en postant une vidéo de sa voiture heurtant un trottoir et les dommages causés à l'une des roues de la voiture.

    Dans le message, ils notent qu'une roue de remplacement coûte 870 $ et affirment que Tesla n'a pas voulu la remplacer même avec une vidéo montrant que le choc avec le trottoir s'est produit alors que la fonction FSD était activée. Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.) Mais cela irrite les conducteurs qui pensent que le fait de céder les commandes de direction et d'accélération ne vaut pas la peine d'être anxieux à l'idée de devoir surveiller chaque petit virage à basse vitesse.

    « J'ai remarqué que le FSD se rapprochait dangereusement des bordures de trottoir dans les virages. Le véhicule a même frôlé le côté droit de la voie et a raclé quelques bâtons qui dépassaient des buissons le long de la route. Je sais qu'il s'agit d'un véhicule "supervisé" et que le conducteur devrait toujours en avoir le contrôle. Mais à quoi cela sert-il si je dois débrayer à chaque virage ? », s'interroge un critique. D'autres critiques du FSD de Tesla ont également partagé leurs mauvaises expériences sur les réseaux sociaux. Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.

    Ce que beaucoup de gens ne réalisent pas à propos du FSD, ou de l'Autopilot de Tesla en général, c'est qu'il peut falloir exercer un couple de force appliqué par l'utilisateur pour convaincre la voiture de céder le contrôle au conducteur. Ainsi, même si un conducteur commence à se rendre compte que le véhicule tourne légèrement près de la bordure d'un trottoir, le temps qu'il met à réagir et à reprendre le contrôle peut ne pas être suffisant pour éviter le saut. Par ailleurs, selon les experts, la communication autour de l'Autopilot et du FSD ne permet pas aux utilisateurs de savoir réellement à quoi s'attendre avec ces logiciels.

    Il convient de noter que les véhicules Tesla qui heurtent le trottoir n'ont rien de nouveau, et que cela se produisait également de temps à autre dans les anciennes versions du logiciel FSD de Tesla. Il se peut que le problème se soit aggravé récemment, ou qu'il soit simplement devenu plus important à mesure que de plus en plus de propriétaires essaient le FSD. Par le passé, Tesla et Musk ont été poursuivis pour publicité mensongère. À titre d'exemple, en février de l'année dernière, Tesla et Musk ont été poursuivis par des actionnaires pour avoir exagéré l'efficacité et la sécurité des technologies de leurs véhicules électriques.

    Dans une proposition de recours collectif déposée auprès du tribunal fédéral de San Francisco, les actionnaires ont déclaré que Tesla les a escroqués pendant quatre ans avec des déclarations fausses et trompeuses qui ont dissimulé comment ses technologies, soupçonnées d'être une cause possible de multiples accidents mortels, créaient un risque sérieux d'accident et de blessure. Selon eux, le cours de l'action Tesla a chuté à plusieurs reprises lorsque la vérité a été révélée, notamment après que la "National Highway Traffic Safety Administration" (NHTSA) a commencé à enquêter sur les technologies Autopilot et FSD de Tesla.

    L'été dernier, la NHTSA a publié un rapport accablant sur Tesla. Le rapport fait état de 736 cas d'accidents impliquant les voitures Tesla, dont 17 accidents mortels. En outre, un autre site appelé Tesla Deaths, qui fournit une perspective plus globale, indique que le nombre de décès liés à Tesla au 12 juin 2023 est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33. Le rapport de la NHTSA a suscité de nombreuses interrogations sur le contrôle de la qualité chez le constructeur américain et la sécurité des systèmes Autopilot et FSD de l'entreprise. Les rapports sur leurs défaillances sont pléthores.

    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».

    « Je suis arrivé sur une voie et il y avait devant moi des cônes de signalisation pour rappeler qu'il y avait des travaux en cours. Ma Tesla avec le FSD activé s'engage sur la voie, détecte les cônes et s'arrête. Les cônes sont sur la trajectoire de la voiture. Je pensais que la voiture allait reculer, mais au lieu de cela, elle commence à avancer lentement, puis accélère soudainement pour écraser le cône. Je m'arrête et je reprends la main. Je pense sincèrement que cette chose n'aurait jamais dû être autorisée sur les routes », a écrit un critique.

    Certains observateurs se demandent si le bilan alarmant de l'Autopilot et du FSD n'indiquerait pas une course à l'innovation au mépris de la sécurité. Mais Musk a défendu à plusieurs reprises sa décision de pousser les technologies d'assistance à la conduite aux propriétaires de Tesla, arguant que les avantages l'emportent sur les inconvénients.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des mauvaises performances du logiciel Full Self-Driving de Tesla ?
    Que pensez-vous des différents incidents rapportés par les utilisateurs du système FSD de Tesla ?

    Voir aussi

    La technologie de conduite automatisée de Ford est bien meilleure que celle de Tesla, selon Consumer Reports

    Si l'Autopilot ne vous tue pas, ça sera les vitres : une milliardaire américaine se noie dans une Tesla après que les sauveteurs se sont battus avec les vitres renforcées de la voiture

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

  13. #353
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 635
    Points
    3 635
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
    Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
    Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
    Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
    Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
    Fake it, till you make it, bro.
    C'est marrant comme Musk, très bavard est muet dans certaines situations...
    L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
    Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
    Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

    Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.

  14. #354
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 633
    Points : 201 220
    Points
    201 220
    Par défaut Mon combat contre Tesla : Je veux laver mon nom avant de mourir. Une ingénieure accuse Tesla de diffamation
    Mon combat contre Tesla : Je veux laver mon nom avant de mourir. Une ingénieure accuse Tesla de diffamation,
    Elle a été licencié après avoir soulevé un problème de sécurité concernant un défaut de conception

    L'ingénieure Cristina Balan était autrefois populaire chez Tesla, aux États-Unis. Mais après avoir soulevé un problème de sécurité concernant un défaut de conception susceptible d'affecter le freinage des voitures en 2014, elle affirme que la direction est devenue hostile et qu'elle a perdu son emploi. Cristina Balan affirme avoir été diffamée par son ancien employeur en 2017, ce qui a porté atteinte à sa réputation professionnelle, mais grâce à une série d'arguments procéduraux (notamment le recours à l'arbitrage privé), les avocats de Tesla ont évité que l'affaire soit portée devant un tribunal public.

    Elle se bat maintenant, en tant que mère célibataire, pour sa vie et sa réputation, et elle souhaite ardemment laver son nom. « Je veux laver mon honneur. J’aimerais qu’Elon Musk ait la décence de s’excuser », a-t-elle déclaré à l'occasion d'une interview. Balan, en rémission d’un cancer, affirme qu'elle est déterminée à prouver son innocence pour le bien de son fils : « Je suis son héroïne », dit-elle. « Je suis la maman qui fait des avions et des voitures ». Elle ne veut pas qu'il grandisse en croyant que sa mère était une voleuse.


    Jusqu’en 2014, Cristina Balan était une étoile montante au sein de l’entreprise de voitures électriques aux États-Unis. En hommage à son expertise en ingénierie, ses initiales étaient gravées sur toutes les premières batteries des modèles Tesla S. Durant l'interview sur Zoom avec Zoe Kleinman, elle a fièrement exhibé une coque de batterie devant la caméra. Cristina se souvient d’avoir discuté avec Musk dans la file d’attente de la cantine du personnel et affirme qu’elle était heureuse et réussissait, vivant son rêve après avoir grandi en Roumanie avec une passion de toute une vie pour les voitures.

    Le tournant

    Mais après avoir soulevé des préoccupations concernant la sécurité du freinage des véhicules Tesla en 2014, elle a perdu son emploi. Balan craignait que les tapis ne s'enroulent sous certaines pédales - un défaut de conception simple mais potentiellement mortel - et a indiqué que des clients s'étaient plaints.

    « Si vous ne pouvez pas appuyer sur le frein, quelqu'un d'autre, en dehors d'une Tesla, peut être blessé », a-t-elle expliqué. Ils n'avaient qu'à dire : « Nous sommes conscients que les tapis sont mauvais, enlevez-les des voitures ». Mais les responsables ont rejeté ses préoccupations et sont devenus hostiles, affirme Balan.

    Elle a donc envoyé un courriel à Musk, qui avait directement encouragé les employés à lui faire part de tout souci susceptible d'affecter la réputation de Tesla. « Je lui ai envoyé deux courriels », raconte Balan. « Je lui en ai envoyé un avant mon départ [de Tesla], lui disant que nous étions tous menacés ». Je me disais : « Il veut toujours faire ce qu'il faut pour Tesla ». Mais la démarche a échoué et Balan a perdu son emploi.

    Balan a fait part à BBC News de diverses communications entre elle et Tesla pendant la période où elle travaillait dans cette entreprise. BBC News a fait part de ses revendications à Tesla, mais n'a reçu aucune réponse.

    Le site web de l'entreprise indique : « La sécurité est l'élément le plus important de chaque Tesla » et aussi « Nous concevons nos véhicules pour qu'ils dépassent les normes de sécurité ».

    Nom : cri.png
Affichages : 10079
Taille : 449,5 Ko
    Les initiales CB sur une batterie Tesla Model S, d'après la conception de Cristina Balan

    Accusée par Tesla « d'abus de confiance »

    Cristina a remporté un procès pour licenciement abusif, comme rapporté dans la presse américaine. Cependant, dans une longue déclaration médiatique, Tesla l’a accusée d’avoir utilisé du temps et des ressources de l’entreprise pour un « projet secret », qu’elle [l'entreprise] qualifie d’acte d’abus de confiance - un crime aux États-Unis.

    C’est quelque chose que Cristina nie catégoriquement. Tesla n’a jamais fourni de détails sur l’incident allégué, ni à elle ni au public. L’entreprise n’a pas non plus répondu à la demande de BBC News d’obtenir des informations à ce sujet. Cristina accuse Tesla de diffamation. Et bien qu’elle soit actuellement en rémission d’un cancer du sein de stade 3B, sa plus grande inquiétude est de ne peut-être pas vivre assez longtemps pour voir son dernier jour devant la justice.

    Une expérience vécue par un autre lanceur d'alerte

    Un autre lanceur d'alerte de Tesla, Lukasz Krupski, a affirmé avoir vécu une expérience similaire, sans rapport avec le sujet, après avoir envoyé un courriel à Musk pour lui faire part de ses inquiétudes concernant les conditions de travail au siège de Tesla en Norvège.

    Selon Balan, d'autres membres du personnel de Tesla pourraient avoir « peur de s'exprimer ». Son affaire sera finalement entendue par la Cour d'appel du neuvième circuit de Californie. C'est sa seule chance d'obtenir gain de cause sur le plan professionnel, estime Balan.

    « Je ne veux pas renoncer à ma carrière », dit-elle. « Et je sais que si je ne gagne pas ce procès, mes compétences n'auront aucune importance. Tout le monde regardera ce que Tesla dira de moi, et ma carrière s'envolera. Je ne veux pas de cela ».

    Le style de direction de Musk est notoirement non conventionnel, mais certains de ceux qui ont travaillé pour lui affirment qu'il obtient des résultats. Dolly Singh, qui a travaillé à SpaceX pour Musk entre 2008 et 2013, a déclaré à BBC News qu'il était un « leader incroyable ». « Si ce n'était pas le cas, il n'accomplirait pas les choses qu'il fait », a-t-elle déclaré en 2022. « Oui, c'est épuisant de travailler pour Elon. Mais je pense que c'est un terrain d'expérimentation comme il n'y en a pas d'autre ».

    L'avocat américain Gordon Schnell, du cabinet Constantine Cannon, affirme qu'un nombre croissant de travailleurs du secteur technologique deviennent des lanceurs d'alerte. Les enjeux sont si importants que les produits technologiques ont « un impact considérable sur le monde », explique-t-il.

    « Ils touchent vraiment notre vie à tous », ajoute-t-il. Mais Schnell, qui se spécialise dans la représentation des lanceurs d'alerte, conseille d'explorer toutes les options possibles avant de rendre publique toute réclamation. « Il existe tant de voies protégées dans tant de secteurs différents qu'un lanceur d'alerte peut emprunter pour faire part de ses préoccupations confidentielles aux organismes gouvernementaux compétents qui sont les mieux à même d'y répondre », explique-t-il.

    Conclusion

    Cette affaire soulève des questions éthiques importantes sur la manière dont les entreprises traitent les allégations internes et les préoccupations des employés. La transparence et la communication ouverte sont essentielles pour maintenir la confiance non seulement au sein de l’entreprise mais aussi avec ses clients et le public.

    L’histoire de Cristina pourrait avoir un effet dissuasif sur les futurs lanceurs d’alerte. La peur de représailles ou de diffamation peut empêcher des employés de signaler des problèmes importants, ce qui pourrait avoir des conséquences graves pour la sécurité et le bien-être publics. Son histoire met en lumière les défis auxquels sont confrontés les lanceurs d’alerte et la nécessité d’une plus grande protection et soutien pour ceux qui osent parler. Son cas est un rappel que derrière chaque grand titre se trouve une personne réelle, luttant pour ce qu’elle croit être juste.

    Source : interview

    Et vous ?

    Quelle est votre opinion sur la situation de Cristina Balan et les accusations portées contre elle par Tesla ?
    Pensez-vous que les grandes entreprises technologiques devraient être plus transparentes concernant les préoccupations de sécurité soulevées par leurs employés ?
    Comment les entreprises peuvent-elles équilibrer la protection de leurs secrets commerciaux tout en s’assurant que les problèmes de sécurité légitimes sont abordés ?
    Si vous étiez à la place d’Elon Musk, comment auriez-vous réagi aux préoccupations soulevées par Cristina Balan ?
    Quel impact pensez-vous que cette affaire aura sur la réputation de Tesla et sur la perception du public envers les lanceurs d’alerte ?
    Dans quelle mesure la lutte personnelle de Cristina Balan influence-t-elle votre perception de l’affaire ? Est-ce que cela change votre point de vue sur la crédibilité de ses affirmations ?
    Quelles mesures les entreprises devraient-elles prendre pour soutenir les employés qui traversent des épreuves personnelles graves tout en faisant face à des conflits professionnels ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #355
    Candidat au Club
    Homme Profil pro
    Inscrit en
    Novembre 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations forums :
    Inscription : Novembre 2013
    Messages : 1
    Points : 4
    Points
    4
    Par défaut ce qui passera toujours avant tout
    Dans des entreprises comme tesla portées par la figure de leur fondateur et leader c'est l'égo himalayesque de ce dernier qui aura toujours le pas sur quoi ou qui que ce soit et à n'importe quel prix quoiqu'il dise.

  16. #356
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    457
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 457
    Points : 1 965
    Points
    1 965
    Par défaut
    Il est dommage qu'une boîte aussi audacieuse dépende à ce point de l'ego de son créateur. Comme d'habitude dans ce genre d'organisation, les seconds couteaux sont très inférieurs au leader, complètement soumis, ce qui peut expliquer qu'ils aient été incapables de réagir sainement au cas des tapis.

  17. #357
    Nouveau Candidat au Club
    Homme Profil pro
    Responsable d'exploitation informatique
    Inscrit en
    Septembre 2017
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : Algérie

    Informations professionnelles :
    Activité : Responsable d'exploitation informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : Septembre 2017
    Messages : 2
    Points : 0
    Points
    0
    Par défaut
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    Le problème dans ce genre d'affaire est qu'on n'a pas les éléments nécessaires et suffisants afin de bien comprendre de quoi il retourne…

    Nous savons ce que la dame veut et ce qu'elle avance comme preuve pour étayer ses dires, mais nous n'avons pas la version de Tesla, tout au plus des allégations sur comment cette firme maltraite son personnel qui soulève des problématiques que les responsables semble ne pas apprécier… toujours selon le dire des employés déchus…

    Je ne prends pas la défense de la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…

  18. #358
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 953
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 953
    Points : 2 068
    Points
    2 068
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    Le problème dans ce genre d'affaire est qu'on n'a pas les éléments nécessaires et suffisants afin de bien comprendre de quoi il retourne…

    Nous savons ce que la dame veut et ce qu'elle avance comme preuve pour étayer ses dires, mais nous n'avons pas la version de Tesla, tout au plus des allégations sur comment cette firme maltraite son personnel qui soulève des problématiques que les responsables semble ne pas apprécier… toujours selon le dire des employés déchus…

    Je ne prends pas la défense de la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…
    Quand Tesla fait dormir ses employés dans l'usine pendant le confinement vous avez besoin de la version de Tesla pour comprendre ? (a noter que l'on a même pas la version de ceux là d'employés, pas assez solides pour nous la donner)
    Quand Tesla falsifie les vidéos et les statistiques de son fsd qu'il envoi tester sur route par les clients eux même, il vous faut aussi la version de Tesla pour peut être trouver une justification satisfaisante?
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  19. #359
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 635
    Points
    3 635
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    [...] la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…
    Voici la version de la NHTSA : Tesla annonce un rappel massif de tous les Cybertruck pour pédales d'accélérateur défectueuses

  20. #360
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 823
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 823
    Points : 15 241
    Points
    15 241
    Par défaut
    Et donc ils réintègrent l'ingénieure en lui présentant toutes leurs excuses ?
    Il a à vivre sa vie comme ça et il est mûr sur ce mur se creusant la tête : peutêtre qu'il peut être sûr, etc.
    Oui, je milite pour l'orthographe et le respect du trait d'union à l'impératif.
    Après avoir posté, relisez-vous ! Et en cas d'erreur ou d'oubli, il existe un bouton « Modifier », à utiliser sans modération
    On a des lois pour protéger les remboursements aux faiseurs d’argent. On n’en a pas pour empêcher un être humain de mourir de misère.
    Mes 2 cts,
    --
    jp

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 09h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 09h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 21h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 14h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 03h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo