IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #341
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    May 2019
    Messages
    1 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : May 2019
    Messages : 1 802
    Points : 35 767
    Points
    35 767
    Par défaut Test du rappel Autopilot de Tesla - Un sentiment persistant d'insécurité, selon le chroniqueur Geoffrey Fowler
    Voitures autonomes : « En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager »,
    déclare Geoffrey Fowler, chroniqueur technologique

    Geoffrey Fowler, un chroniqueur technologique, partage ses inquiétudes dans un article de blog après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Malgré les assurances de sécurité, Fowler constate que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne que le rappel visait à encourager l'attention des conducteurs en détectant les mains sur le volant, mais son expérience démontre que la voiture peut traverser la ville sans qu'il ait besoin de lever les mains du volant pendant des périodes prolongées.

    Tesla fait face à des problèmes persistants liés à son système Autopilot, malgré un rappel massif de plus de 2 millions de véhicules. Consumer Reports indique que les tests préliminaires révèlent que la solution de Tesla pour surveiller l'attention des conducteurs est insuffisante, permettant aux conducteurs de neutraliser le système et de l'utiliser de manière abusive, créant ainsi des risques pour la sécurité. Bien que Tesla ait publié une mise à jour logicielle en réponse à une enquête fédérale, Consumer Reports estime que les changements apportés ne vont pas assez loin pour prévenir une mauvaise utilisation. Des inquiétudes subsistent quant à la capacité des conducteurs à contourner les contrôles et à utiliser l'Autopilot de manière inappropriée, malgré les modifications apportées par le rappel.

    Nom : teslaB.png
Affichages : 7559
Taille : 206,8 Ko

    Tesla a demandé à la National Highway Traffic Safety Administration (NHTSA) de ne pas divulguer l'implication de ses logiciels Autopilot et Full Self-Driving dans les accidents de la route, alléguant que ces informations relèvent du secret commercial. La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises. Les systèmes Autopilot et Full Self-Driving ont été au centre de controverses, avec des enquêtes en cours sur des accidents, certains mortels, impliquant des véhicules Tesla utilisant ces technologies. Malgré les promesses de conduite autonome de Musk, les logiciels de Tesla sont critiqués pour leurs performances. En juin, on a signalé 736 accidents et 17 décès impliquant des Teslas en mode Autopilot depuis 2019. La NHTSA enquête sur 35 accidents impliquant des systèmes avancés d'aide à la conduite de Tesla depuis 2016, dont 14 ont entraîné des décès.

    Tesla accusée de cacher les accidents liés à son Autopilot

    Selon des données gouvernementales diffusées en novembre de l’année dernière, Tesla a signalé aux régulateurs américains de la sécurité routière deux nouveaux cas mortels impliquant des systèmes d’assistance avancée au volant dans ses modèles 3 de Tesla. La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla. Elle a ordonné en juin 2021 aux entreprises technologiques et aux constructeurs automobiles de lui notifier sans délai tout accident impliquant des ADAS ou des véhicules dotés de systèmes de conduite automatisée testés sur route.

    Tesla a suscité des polémiques autour de son système d’aide à la conduite, l’Autopilot, en arrêtant de publier les statistiques sur sa sécurité, malgré les demandes de la NHTSA. Depuis 2018, l’entreprise divulguait chaque trimestre les statistiques de sécurité de l’Autopilot, qui indiquent le taux d’accidents par kilomètre. Mais ces rapports ont disparu l’année dernière. Tesla n’a pas expliqué pourquoi, mais selon les critiques, « le nombre d’accidents avec l’Autopilot est devenu inquiétant, ce qui pourrait effrayer les clients et affecter leurs achats ». L’entreprise redouterait aussi des actions en justice fondées sur ces chiffres.

    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents. Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise, qui est visée par plusieurs enquêtes et procès pour des accidents mortels liés à son système Autopilot. En tentant de dissimuler les détails sur l’implication de ses logiciels dans ces accidents, Tesla pourrait porter atteinte à la confiance du public et à la sécurité des conducteurs. Tesla devrait plutôt collaborer avec les autorités et donner des informations exactes et claires sur les possibilités et les contraintes de ses systèmes d’assistance à la conduite.

    Selon les données de la NHTSA, les accidents mortels et les blessures graves associés à Autopilot de Tesla ont considérablement augmenté, avec une focalisation particulière sur la technologie Full Self Driving encore en phase bêta. Depuis 2021, les constructeurs automobiles sont tenus d'informer la NHTSA en cas d'accident impliquant des systèmes de conduite partiellement automatisés, tels que ceux de niveau 2. Les statistiques révèlent que Tesla était impliqué dans les trois quarts de tous les accidents ADAS signalés entre juillet 2021 et mai 2022, totalisant 273 accidents sur 367. De plus, cinq des six décès répertoriés dans les données de juin 2022 étaient associés à des véhicules Tesla. Ces chiffres mettent en évidence une tendance préoccupante qui soulève des inquiétudes quant à la fiabilité et à la sécurité d'Autopilot.

    Critiques envers Tesla et Musk pour un Autopilot jugé trompeur

    Les critiques envers Tesla et Elon Musk s'intensifient, notamment en raison du nom "Autopilot" jugé trompeur par le sénateur américain Edward Markey en 2020. Markey a exhorté Tesla à renommer le système, soulignant son potentiel danger et appelant à la création d'outils de surveillance des pilotes. Tesla a répondu en affirmant avoir pris des mesures pour améliorer la sécurité, notamment en introduisant de nouveaux avertissements.

    Cependant, malgré les affirmations de Musk sur la supériorité de la sécurité des modèles autonomes, les poursuites judiciaires se multiplient. Un juge californien a ordonné que Musk soit interrogé sous serment concernant ses déclarations sur Autopilot, malgré les tentatives de Tesla de discréditer une éventuelle vidéo de Musk comme étant un deepfake. La cour a rejeté cet argument, ordonnant finalement que le PDG de Tesla se présente au tribunal pour une déposition sous serment.

    Geoffrey Fowler, le chroniqueur technologique, a soumis sa Tesla à deux tests de conduite identiques avant et après une mise à jour. Le processus de rappel pour la réparation, signalé comme manquant d'urgence, a révélé des lacunes dans la facilité d'obtention des mises à jour. L'auteur a utilisé la fonction Autosteer, décrite comme une version bêta par Tesla, mais largement disponible. Les essais ont montré que, malgré le rappel, Autosteer continuait de s'activer dans des conditions non appropriées, y compris en dehors des autoroutes et à travers des intersections avec des panneaux d'arrêt, provoquant des situations dangereuses.

    Les avertissements visuels ont été améliorés, mais l'auteur s'interroge sur l'impact potentiel des distractions d'écran sur la sécurité routière. Les résultats des tests soulèvent des questions sur la nécessité d'une régulation plus stricte de la fonction Autosteer par la NHTSA et suscitent des préoccupations quant à la conception et à la sécurité du logiciel d'Autopilot de Tesla.

    Geoffrey a exprimé des préoccupations quant à l'inaction de la NHTSA (National Highway Traffic Safety Administration) face aux problèmes de sécurité liés aux mises à jour logicielles de Tesla. Le sénateur Richard Blumenthal appelle à des mesures plus strictes de la part de Tesla et demande à la NHTSA d'agir contre Elon Musk. La NHTSA déclare que la responsabilité de développer des correctifs de sécurité incombe au fabricant, et elle n'approuve pas les solutions à l'avance.


    Le centre de recherche de l'agence prévoit des tests sur les véhicules Tesla rappelés, mais il n'est pas clair quand cela se produira. Le texte souligne la nécessité de réglementations plus rigoureuses pour les technologies automobiles, comparant la situation aux examens préalables des applications pour téléphones mobiles. Le sénateur Markey conclut en appelant à des solutions de sécurité plus intelligentes pour les voitures du futur.

    Geoffrey souligne le besoin d'une réglementation plus stricte et d'une supervision gouvernementale plus rigoureuse, appelant à une limitation de la fonction Autosteer aux autoroutes à accès limité. Finalement, il interroge sur la responsabilité du gouvernement et de la NHTSA (Administration nationale de la sécurité routière) dans la supervision des mises à jour logicielles des véhicules autonomes et appelle à des mesures plus strictes pour garantir la sécurité publique dans cette ère émergente de véhicules autonomes.

    Source : Geoffrey Fowler's blog post

    Et vous ?

    Quel est votre avis sur le sujet ?
    L'analyse de Geoffrey Fowler est-elle pertinente ?
    Êtes-vous pour ou contre les voitures autonomes ?
    Partagez-vous le sentiment d'insécurité persistant de Geoffrey Fowler au sujet des Tesla ?

    Voir aussi :

    Tesla aurait demandé aux responsables de la sécurité routière d'expurger les informations concernant l'utilisation de son logiciels d'aide à la conduite, lors d'accidents

    Une vidéo montre que le mode Full Self-Driving de Tesla ne peut absolument pas gérer la neige, de quoi faire sourire les autorités californiennes qui œuvrent pour que Tesla abandonne ses dénominations
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #342
    Membre éclairé
    Homme Profil pro
    Webdesigner
    Inscrit en
    June 2014
    Messages
    415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : France, Hautes Pyrénées (Midi Pyrénées)

    Informations professionnelles :
    Activité : Webdesigner
    Secteur : Associations - ONG

    Informations forums :
    Inscription : June 2014
    Messages : 415
    Points : 831
    Points
    831
    Par défaut
    La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
    Sommes-nous dans un mode orwellien ?

    Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?

  3. #343
    Membre éclairé
    Homme Profil pro
    Urbaniste
    Inscrit en
    August 2023
    Messages
    374
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : August 2023
    Messages : 374
    Points : 749
    Points
    749
    Par défaut
    Non c'est le fonctionnement normal des USA, et de la privatisation en général.

    Les entreprises financent les autorités qui les régulent,
    ce sont les entreprises qui évaluent et rapportent sur la qualité
    et la nocivité de leurs produits.

    La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
    Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
    Ce qui fait dire,
    Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
    Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
    à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
    dans ces articles constituant.

    En résumé, tout fonctionne comme il se doit
    puisque c'est ainsi que les choses ont été faites pour fonctionner,
    même si par ailleurs,
    ça semble aberrant.

  4. #344
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    February 2003
    Messages
    1 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : February 2003
    Messages : 1 908
    Points : 1 906
    Points
    1 906
    Par défaut
    La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
    Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
    Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  5. #345
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    March 2013
    Messages
    8 316
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : March 2013
    Messages : 8 316
    Points : 195 135
    Points
    195 135
    Par défaut Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving
    Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving.
    « On nous a vendu un faux sentiment de sécurité », a déclaré sa veuve, rappelant que Musk a déclaré que la voiture pouvait « se conduire toute seule »

    Hans von Ohain, un recruteur chez Tesla et un admirateur du PDG Elon Musk de 33 ans, aurait perdu la vie dans un accident de voiture au Colorado en 2022 impliquant le système de conduite autonome de Tesla, appelé Full Self-Driving (FSD). Selon son ami et passager Erik Rossiter, qui a survécu à la collision, von Ohain avait activé le FSD sur sa Tesla Model 3 lorsqu’il a quitté la route et heurté un arbre, provoquant une explosion et un incendie. Bien que le jeune père de famille ait consommé de l'alcool avant l'accident mortel, les détectives ont élargi leur enquête après qu'il est apparu qu'il ne s'agissait pas d'un cas ordinaire de conduite en état d'ébriété.

    « Indépendamment de l'état d'ébriété de Hans, Musk a prétendu que cette voiture pouvait se conduire toute seule et qu'elle était essentiellement meilleure qu'un humain », a déclaré Nora Bass, la veuve de von Ohain. « On nous a donné un faux sentiment de sécurité ».


    Un employé de Tesla (et fan « dévoué » de son PDG Elon Musk) nommé Hans von Ohain a été tué après que sa Model 3 se soit écrasée contre un arbre et ait pris feu en 2022. Son ami et passager Erik Rossiter, qui a survécu à la collision, a depuis déclaré au Washington Post que Hans von Ohain avait activé la fonction de Full Self-Driving de la voiture au moment de l'accident mortel.

    Si cette hypothèse est confirmée, il pourrait s'agir du premier décès connu lié à cette fonction, une option de 15 000 dollars qui a déjà attiré l'attention des autorités de régulation.

    Le quotidien a également confirmé que le véhicule était équipé de cette fonction (von Ohain l'avait reçue gratuitement grâce à sa réduction d'employé) et sa veuve a également déclaré qu'il l'utilisait fréquemment.

    L’accident s’est produit près de Denver, dans le Colorado, alors que les deux amis revenaient d’une partie de golf. Rossiter a déclaré au Washington Post que le FSD avait fait plusieurs écarts pendant le trajet aller et que von Ohain avait dû reprendre le contrôle à plusieurs reprises. Ils avaient également consommé de l’alcool pendant la journée, mais Rossiter a affirmé que von Ohain semblait sobre et maître de lui au moment de monter dans la voiture pour le retour.

    Une autopsie de von Ohain a révélé qu’il avait un taux d’alcoolémie de 0,26 - plus de trois fois la limite légale. La police de l’État du Colorado a conclu que l’intoxication était le principal facteur à l’origine de l’accident, mais elle a également mené une enquête sur le rôle éventuel du FSD de Tesla. Le sergent Robert Madden, qui a dirigé l’enquête, a observé des traces de pneus en roulement sur le lieu de l’accident, ce qui signifie que le moteur a continué à envoyer de la puissance aux roues au moment de l’impact. Il n’y avait pas non plus de traces de freinage.

    Madden a déclaré : « Étant donné la dynamique de l’accident et la façon dont le véhicule a quitté la route sans preuve d’une manœuvre soudaine, cela correspond à la fonctionnalité [d’assistance à la conduite] ». Il a ajouté qu’il n’avait pas accès aux journaux de bord du véhicule, qui auraient pu confirmer ou infirmer l’utilisation du FSD.

    La veuve de von Ohain, Nora Bass, veut que Tesla assume sa responsabilité dans la mort de son mari : « Peu importe à quel point Hans était ivre, Musk a affirmé que cette voiture pouvait se conduire elle-même et qu’elle était essentiellement meilleure qu’un humain. On nous a vendu un faux sentiment de sécurité ». Elle n’a pas réussi à trouver un avocat pour prendre l’affaire, car son mari était ivre.

    Nom : voiture.png
Affichages : 4855
Taille : 332,8 Ko

    L'entreprise tente de se dédouaner

    Malgré le marketing trompeur de l'entreprise, les véhicules Tesla sont encore loin d'être capables de se conduire tout seuls. Sur son site web, l'entreprise avertit les conducteurs qu'ils doivent être « prêts à prendre des mesures immédiates, y compris le freinage » :

    Les fonctionnalités Autopilot, Enhanced Autopilot et Full Self-Driving sont destinées à un conducteur attentif, qui a les mains sur le volant et qui est prêt à prendre le contrôle à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, votre véhicule n’est pas autonome avec les fonctionnalités actuellement actives[...].

    Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
    Full Self-Driving (FSD) développe le logiciel d'aide à la conduite Autopilot de l'entreprise, et est conçu pour prendre des décisions au nom de l'utilisateur tout en conduisant à la fois sur les autoroutes et dans les rues animées des villes.

    Alors que la National Highway Traffic Safety Administration enquête déjà sur Autopilot à la suite d'une série d'accidents dans lesquels des Tesla ont percuté des véhicules d'intervention d'urgence arrêtés avec des sirènes ou des fusées éclairantes, aucun accident mortel n'a été définitivement lié à la FSD - bien que la mort de von Ohain, comme le rapporte Washington Post, semble assurément suspecte.

    Selon une analyse du Washington Post de l'année dernière, le nombre d'accidents mortels impliquant le mode Autopilot a bondi. Sur plus de 700 accidents impliquant la fonctionnalité depuis 2019, au moins 17 ont été mortels.

    Qui est responsable ?

    Néanmoins, même si l'alcool n'était pas en cause, des experts ont souligné que le marketing trompeur de Tesla pouvait donner aux conducteurs un faux sentiment de sécurité au volant.

    Malgré les affirmations démesurées de Tesla au sujet de cette technologie, Tesla maintient que sa fonction FSD est encore en "bêta", ce qui signifie qu'elle est toujours en cours de développement.

    Sa prise de décision sur la route peut être très suspecte. Dans une vidéo téléchargée la semaine dernière, le propriétaire d'une Tesla a dû neutraliser la fonction après que la voiture a tenté de tourner brusquement à gauche, se dirigeant tout droit vers les véhicules venant en sens inverse. Nous avons également vu des vidéos de Teslas avec la fonction activée ignorant des feux rouges, percutant une voiture de police et se débattant dans la neige.

    La mort de Von Ohain soulève d'importantes questions éthiques, notamment en ce qui concerne la culpabilité. Le marketing trompeur de Tesla est-il à blâmer, ou s'agit-il d'un cas d'imprudence de la part d'un conducteur ?

    Sa veuve a déclaré au journal que, personnellement, elle trouvait la fonction trop imprévisible et « saccadée ».

    L'enjeu est de taille, puisque Musk a déclaré en 2022 que la FSD est « la différence entre une Tesla qui vaut beaucoup d'argent et une Tesla qui n'en vaut pratiquement pas du tout ». Même si le développement de cette fonction bénéficie de tout son soutien, le logiciel est encore loin d'atteindre son objectif déclaré d'autonomie totale.

    Musk a promis à plusieurs reprises que Tesla atteindrait le niveau 5 d'autonomie en moins d'un an, un point auquel une voiture est entièrement autonome et n'a pas besoin de volant ou de pédale de frein. Cependant, aujourd'hui, la fonction n'a toujours pas dépassé le niveau 2 d'autonomie, qui exige que le conducteur prenne le contrôle à tout moment.

    Le FSD de Tesla qualifié « d'escroquerie flagrante »

    Jason Hughes, un hacker bien connu dans le monde Tesla, a qualifié le FSD de Tesla « d'escroquerie flagrante ». Il a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.

    En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

    Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

    Nom : jason.png
Affichages : 1376
Taille : 18,1 Ko

    Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

    Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.

    Sources : Washington Post, Tesla

    Et vous ?

    Que pensez-vous du FSD de Tesla ? Est-ce une technologie révolutionnaire ou dangereuse ?
    Qui devrait être tenu responsable des accidents impliquant le FSD de Tesla ? Le conducteur, Tesla, ou les deux ?
    Faites-vous confiance à la conduite autonome ? Seriez-vous prêt à utiliser le FSD de Tesla ou un système similaire ?
    Quels sont les avantages et les inconvénients de la conduite autonome pour la société et l’environnement ?
    Quelles sont les limites de la conduite autonome ? Comment les réguler et les contrôler ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #346
    Membre averti
    Homme Profil pro
    amateur
    Inscrit en
    July 2015
    Messages
    87
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : July 2015
    Messages : 87
    Points : 346
    Points
    346
    Par défaut
    Citation Envoyé par grunk Voir le message
    Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
    ...et remplacer un ancien bug par un nouveau.
    C'est ce que font la plupart des mises à jour.

  7. #347
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    October 2019
    Messages
    1 349
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : October 2019
    Messages : 1 349
    Points : 5 390
    Points
    5 390
    Par défaut
    On nous a vendu un faux sentiment de sécurité
    aux français aussi, bienvenue au club

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 10h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 10h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 22h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 15h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 04h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo