IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre extrêmement actif Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 037
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 037
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    pour juste se faire une bonne idée, il me semble que durant le confinement, on était tous… confinés !! Pourquoi faire porter le blâme sur Tesla alors que c'est une décision du GOUVERNEMENT de confiner les espaces publics avec interdiction de sortir… que les employés aient été confines n'apparait donc plus comme un acte d'oppression sinon il va falloir demander des comptes aussi au gouvernement…
    Si vous ne voyez pas de différence entre confiner les gens (pas ensembles) pour les protéger et Musk qui entasse ses ouvriers dans son usine pour bosser alors on ne peut plus rien pour vous.

    Citation Envoyé par LeQueteur Voir le message
    Bon, Tesla falsifie des vidéos et des statistiques de son système quel qu'il soit, vous le dites sans citer aucune source afin de vérifier ces dires… ou alors, c'est qu'un parti pris a déjà été pris a priori…

    C'est fou ce qu'on peut être biaisé quand on porte des œillères ...
    A qui le dites vous... pas besoin de moi pour donner les sources dont ce fil est rempli

    Citation Envoyé par LeQueteur Voir le message
    Quand on recherche la vérité, il me parait que le minimum est de mener une bonne investigation et d'écouter, d'abord, les déclarations des deux parties en conflit.
    Oui, et il y a aussi les faits qui sont tenaces

    Citation Envoyé par LeQueteur Voir le message
    Là, on parle du cas de la femme citée dans l'article, les autres cas ne sont pas inclus dans la discussion, sauf si le but n'est pas de traiter l'information équitablement, mais plutôt inventer des excuses afin de ne pas traiter le cas avec objectivité.
    Pas de bol, la discussion qui a maintenant pas mal de pages ne parle pas que du cas de cette dame. La question qui m'interpelle ici c'est quelle illusion Musk vous a fait pour voir en lui encore une possibilité de bienveillance face à toutes ces casseroles.

    Citation Envoyé par LeQueteur Voir le message
    Jouer sur l'émotionnel n'est surement pas la meilleure manière d'aborder une discussion ou il est demandé de faire preuve d'un minimum de bon sens et d'avoir un minimum de jugeote…
    Oui, a commencer par lire la discussion et pas juste le dernier poste du rédacteur ainsi que pleins d'autres sources qui racontent la même chose et d'autres choses avec des preuves bien solides...

    Quand à la jugeote vous pouvez en effet l'utiliser, lisez un peu sur la conduite autonome, ses problèmes et enjeux et jugeotez sur le choix de ne laisser que quelques cameras placées aux endroits qui permettent de préserver les choix esthétiques du véhicule ; vous trouverez d'un seul coup moins louche le fait que le FSD ne fait pas le job.

  2. #2
    Membre habitué
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 60
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Par défaut
    Pourquoi ce site raconte-t-il autant de bêtises sur Tesla avec des titres putaclic dignes de 20 Minutes ?
    Je croyais que les développeurs réfléchissaient un peu plus, mais en fait, ils agissent exactement comme les médias grand public, diabolisant tout événement sans le mettre en perspective avec le reste. J'ai failli tomber dans le piège lorsque je cherchais des informations sur la marque. J'ai même réussi à faire changer d'avis à un ami qui envisageait d'en acheter une en lui disant qu'elles étaient en bas des classements de fiabilité. Je n'avais pas compris qu'ils comptaient tous les rappels, aussi insignifiants soient-ils, pour faire le compte, ce qui incluait tous les bugs résolus dans les mises à jour, comme le son qui ne se met pas en sourdine lorsque l'on ouvre la porte. Bien sûr, avec un décompte aussi primitif, les voitures technologiques sont en arrière-plan, vu qu'elles sont constamment mises à jour. En analysant les chiffres, j'ai compris que Tesla était le meilleur élève sur ce point dans le domaine des véhicules électriques, loin devant VW, Mercedes ou Renault... mais dans les médias, aucune analyse un peu poussée, juste du niveau des discussions de bistrot.

    Ne vous demandez-vous pas pourquoi le moindre pneu crevé d'une Tesla en Australie fait la une des journaux ? Pourquoi le moindre accident impliquant une Tesla fait la une de tous les journaux ? Pourquoi, lorsque la NHTSA demande à plus de 10 constructeurs de changer quelque chose, seule Tesla fait la une des journaux alors qu'elle est la seule à résoudre le problème rapidement et à distance (taille du logo) ? Pourquoi les utilisateurs deviennent-ils fans alors que ceux qui n'ont jamais conduit crachent dessus ? Pourquoi les médias européens reprennent-ils comme des perroquets la moindre information américaine alors que l'on sait que Musk est politiquement visé ? Pourquoi ne parle-t-on que des rappels de Tesla alors que Mercedes ou BMW en font davantage mais ne sont jamais mentionnés dans les médias ? Pourquoi parle-t-on de rappels alors que Tesla est l'une des seules à résoudre rapidement et à distance plus de 90% des problèmes ? Pourquoi parle-t-on toujours de piratage alors que ce sont les voitures les plus sûres à ce niveau ? Pourquoi, pourquoi, pourquoi ?

    Tesla n'est pas parfaite, mais ce sont clairement les meilleures voitures au meilleur prix avec une technologie de pointe qui devrait être admirée par tout développeur digne de ce nom. Il en va de même pour le FSD, les médias racontent n'importe quoi. Il suffit qu'une jante soit rayée pour invalider la technologie, alors qu'elle a déjà parcouru plus d'1 milliard de kilomètres et évité de nombreux accidents (curieusement, on n'en entend jamais parler, pourquoi ?).

    Je sais bien que Tesla ne dépense pas un centime en publicité, ce qui explique en partie cette haine des médias, mais il y a aussi un aspect politique visant à dévaloriser ses entreprises.
    Il serait peut-être temps de prendre un peu de hauteur, car là, vous êtes au niveau du caniveau avec de tels articles putaclic. Il y a un avantage à ce que vous faites, c'est de donner un bon moment pour acheter des actions Tesla. Lorsque vous devenez arrogants, que vous vous réjouissez d'une baisse des ventes et que le moindre fait divers vous permet de dénigrer la marque, c'est un bon signe pour acheter

  3. #3
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par LeQueteur Voir le message
    Je comprends la détresse de la dame et aussi les préoccupations de la firme Tesla.
    [...] la firme Tesla, je cherche juste à connaitre les tenants et aboutissants et ce que les DEUX parties ont a dire sur le sujet dont il est question dans cet article…
    Voici la version de la NHTSA : Tesla annonce un rappel massif de tous les Cybertruck pour pédales d'accélérateur défectueuses

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 724
    Par défaut Elon Musk est obligé de solder ses automobiles Tesla après ses déboires sur l'Autopilot
    Elon Musk obligé de solder ses automobiles Tesla après ses déboires sur l'Autopilot avéré dangereux, une fiabilité douteuse, des accidents nombreux et une concurrence chinoise implacable

    Tesla a réduit de 2000 dollars le prix de trois de ses cinq modèles aux États-Unis le vendredi 19 avril en fin de journée, un nouveau signe des difficultés auxquelles est confronté le constructeur de véhicules électriques dirigé par le milliardaire Elon Musk.

    L'entreprise a réduit les prix du modèle Y, un petit SUV qui est le modèle le plus populaire de Tesla et le véhicule électrique le plus vendu aux États-Unis, ainsi que des modèles X et S, ses modèles plus anciens et plus chers. Les prix de la berline Model 3 et du Cybertruck sont restés inchangés.

    Ces réductions ont permis de ramener le prix de départ de la Model Y à 42 990 dollars, celui de la Model S à 72 990 dollars et celui de la Model X à 77 990 dollars.


    Cette décision intervient au lendemain de la chute de l'action Tesla sous la barre des 150 dollars, ce qui a annulé tous les gains réalisés au cours de l'année écoulée. Le cours de l'action de la société d'Austin, au Texas, a chuté d'environ 40 % depuis le début de l'année, en raison de la baisse des ventes et de l'intensification de la concurrence. Les prix réduits sont un moyen d'essayer d'attirer davantage d'acheteurs de voitures.

    Tôt le samedi, M. Musk a publié sur X, la plateforme de médias sociaux connue sous le nom de Twitter avant qu'il ne la rachète et la rebaptise, que le coût d'une Tesla d'entrée de gamme n'était que de 29 490 dollars, une fois pris en compte le crédit d'impôt fédéral et les économies d'essence.

    Les analystes du secteur attendent que Tesla lance un petit véhicule électrique qui coûterait environ 25 000 dollars, le modèle 2. Les médias ont rapporté ce mois-ci que M. Musk prévoyait d'abandonner le projet, ce qui a renforcé l'incertitude quant à l'orientation de l'entreprise, bien que M. Musk ait déclaré que ces informations étaient fausses.

    Ces baisses de prix ont mis fin à une longue semaine de travail chez Tesla, qui a annoncé le lundi 15 avril qu'elle supprimait 10 % de son personnel au niveau mondial, soit environ 14 000 emplois. L'entreprise a également indiqué qu'elle rappelait près de 4 000 de ses Cybertrucks 2024 après avoir découvert que la pédale d'accélérateur pouvait se bloquer, ce qui pouvait entraîner une accélération involontaire du véhicule et augmenter le risque d'accident.

    Le samedi 20 avril, Musk a confirmé qu'il avait reporté un voyage prévu ce week-end en Inde pour rencontrer le Premier ministre Narendra Modi, invoquant de "très lourdes obligations pour Tesla". Il a déclaré sur X qu'il espérait pouvoir reprogrammer cette visite plus tard dans l'année.

    Tesla devrait annoncer ses résultats du premier trimestre le mardi 23 avril 2024.

    L'entreprise a indiqué au début du mois que ses ventes mondiales avaient fortement chuté entre janvier et mars, en raison de l'intensification de la concurrence dans le monde, du ralentissement de la croissance des ventes de véhicules électriques et du fait que les réductions de prix antérieures n'ont pas réussi à attirer davantage d'acheteurs.

    Il s'agit de la première baisse des ventes trimestrielles de Tesla d'une année sur l'autre depuis près de quatre ans.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que cette décision de Tesla est crédible ou pertinente ?
    Que pensez-vous de la gestion de Tesla par Elon Musk ?

    Voir aussi :

    Tesla annonce un rappel massif de tous les Cybertruck pour pédales d'accélérateur défectueuses, vous n'avez même plus besoin d'activer l'Autopilot pour avoir un accident

    Elon Musk décide de solder son Full Self-Driving Tesla, après avoir échoué totalement dans son objectif de conduite autonome et étant dans le collimateur des autorités suite aux accidents
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Le rappel d'Autopilot de Tesla, qui concerne 2 Mns de voitures, fait désormais l'objet d'un examen fédéral
    Le rappel du système Autopilot de Tesla, qui concerne 2 millions de voitures, fait désormais l'objet d'un examen fédéral.
    La NHTSA a testé le système mis à jour et a encore des questions

    Le constructeur automobile électrique Tesla est confronté à un nouvel examen minutieux de son système Autopilot, suite à un rappel massif de plus de 2 millions de véhicules en décembre dernier. L’Administration nationale de la sécurité routière (NHTSA) a testé la mise à jour du système et continue de poser des questions sur son efficacité.

    En avril 2021, Consumer Reports a déclaré que ses chercheurs ont « facilement » réussi à tromper le système Autopilot de Tesla pour qu'il fonctionne sans personne au volant. Une démonstration qui est intervenue alors que les autorités continuent d'enquêter sur un accident mortel au Texas impliquant une Tesla qui, selon les autorités, n'avait personne sur le siège du conducteur au moment des faits. Ce nouvel accident a soulevé une question sur la sécurité d’Autopilot, le système avancé d'aide à la conduite de la société.

    Nom : cr.png
Affichages : 5391
Taille : 190,0 Ko

    L’enquête de la NHTSA a débuté en août 2021, lorsque plusieurs accidents impliquant des Tesla sous Autopilot ont eu lieu, notamment des collisions avec des véhicules d’intervention d’urgence stationnés. Certains accidents se sont révélés mortels. En juin 2022, l’Office of Defects Investigation (ODI) a élevé cette enquête à un niveau d’analyse technique. Enfin, en décembre 2023, Tesla a été contrainte de rappeler plus de 2 millions de voitures après que l’analyse a révélé des lacunes dans les systèmes de surveillance du conducteur et une conception présentant un potentiel d’utilisation abusive prévisible du système.

    Des documents publiés par les régulateurs américains de la sécurité indiquaient que l'entreprise allaient envoyer une mise à jour logicielle pour résoudre les problèmes. Le rappel couvre la quasi-totalité des véhicules vendus par Tesla aux États-Unis et inclut ceux produits entre le 5 octobre 2012 et le 7 décembre 2023. La mise à jour du logiciel comprend des contrôles et des alertes supplémentaires « pour encourager davantage le conducteur à adhérer à sa responsabilité de conduite continue », selon les documents.

    Autopilot comprend des fonctions appelées Autosteer et Traffic Aware Cruise Control, Autosteer étant destiné à être utilisé sur les autoroutes à accès limité lorsqu'il ne fonctionne pas avec une fonction plus sophistiquée appelée Autosteer on City Streets. La mise à jour du logiciel est censée limiter l'utilisation d'Autosteer. « Si le conducteur tente d'activer l'Autosteer alors que les conditions ne sont pas réunies pour le faire, la fonction lui signalera qu'elle n'est pas disponible par des alertes visuelles et sonores, et l'Autosteer ne s'activera pas », indiquent les documents de rappel.

    Autopilot peut diriger, accélérer et freiner automatiquement dans sa voie, mais il s'agit d'un système d'aide à la conduite et ne peut pas se conduire lui-même, malgré son nom. Des tests indépendants ont révélé que le système de surveillance est facile à tromper, à tel point que des conducteurs ont été pris en flagrant délit de conduite en état d'ébriété ou même assis sur le siège arrière.

    Dans son rapport de défaut déposé auprès de l'agence de sécurité, Tesla a déclaré que les contrôles d'Autopilot « pourraient ne pas être suffisants pour empêcher une mauvaise utilisation par le conducteur ».

    Tesla précise sur son site internet que le système Autopilot et le système Full Self Driving, plus sophistiqué, ne peuvent pas conduire de manière autonome et sont destinés à aider les conducteurs qui doivent être prêts à intervenir à tout moment. Le système Full Self Driving est actuellement testé par des propriétaires de Tesla sur des routes publiques.


    La NHTSA a maintenant clos cette analyse technique, qui a examiné 956 accidents

    Après avoir exclu les accidents où l'autre voiture était en tort, où Autopilot ne fonctionnait pas ou où les données étaient insuffisantes pour faire une détermination, elle a trouvé 467 accidents Autopilot qui se répartissent en trois catégories distinctes.

    Tout d'abord, 221 étaient des accidents frontaux dans lesquels la Tesla a heurté une voiture ou un obstacle malgré « un temps suffisant pour qu'un conducteur attentif puisse réagir afin d'éviter ou d'atténuer l'accident ». Par ailleurs, 111 accidents Autopilot se sont produits lorsque le système a été désengagé par inadvertance par le conducteur, et les 145 accidents Autopilot restants se sont produits dans des conditions de faible adhérence, par exemple sur une route mouillée.

    Le système Autopilot de Tesla a un domaine de conception opérationnelle plus permissif que n'importe quel système d'aide à la conduite comparable qui exige toujours que le conducteur garde les mains sur le volant et les yeux sur la route, et le rapport de la NHTSA ajoute que « Autopilot a invité une plus grande confiance du conducteur via son autorité de contrôle plus élevée et sa facilité d'engagement ».

    Le résultat a été des conducteurs désengagés qui ont eu des accidents, et ces accidents « sont souvent graves parce que ni le système ni le conducteur ne réagissent de manière appropriée, ce qui entraîne des résultats différentiels à grande vitesse et des accidents à haute énergie », indique la NHTSA. Tragiquement, au moins 13 personnes ont été tuées à la suite de ces accidents.

    La NHTSA a également constaté que le système télématique de Tesla présentait de nombreuses lacunes, malgré la croyance bien ancrée chez de nombreux fans de la marque que le système Autopilot enregistre et télécharge en permanence vers les serveurs de Tesla pour s'améliorer. Au lieu de cela, il n'enregistre un accident que si les airbags se déploient, ce qui, selon les données de la NHTSA, ne se produit que dans 18 % des accidents signalés par la police.

    Un rappel qui semble ne pas avoir porté ses fruits

    L'agence a également critiqué le marketing de Tesla. « Notamment, le terme “Autopilot” n'implique pas une fonction d'assistance L2 mais suscite plutôt l'idée que les conducteurs n'ont pas le contrôle. Cette terminologie peut amener les conducteurs à croire que l'automatisation a plus de capacités qu'elle n'en a et les inviter à faire trop confiance à l'automatisation », indique la NHTSA.

    Mais maintenant, l'ODI de la NHTSA a ouvert une requête de rappel pour évaluer si la correction de décembre a réellement rendu le système plus sûr. À première vue, l'agence n'est pas convaincue que c'est le cas, si l'on en croit les autres accidents d'Autopilot qui se sont produits depuis le rappel et après avoir testé le système mis à jour lui-même.

    De manière inquiétante, l'agence écrit que « Tesla a déclaré qu'une partie du remède exige que le propriétaire opte pour le système et permet à un conducteur de l'annuler facilement » et veut savoir pourquoi les mises à jour ultérieures ont résolu des problèmes qui auraient dû être corrigés avec le rappel de décembre.

    Nom : luca.png
Affichages : 1171
Taille : 126,0 Ko

    Les noms Autopilot et Full Self-Driving dont Tesla fait usage donnent aux utilisateurs un faux sentiment de sécurité

    Comme la NHTSA et plusieurs autres voix avant elle, un lanceur d'alerte, qui a travaillé chez Tesla, qualifie les voitures équipées d’Autopilot « d’expériences sur la voie publique qui menacent la vie des usagers ». Lukasz Krupski, ancien technicien de Tesla, s’est d’ailleurs vu décerner le prix Blueprint Europe Whistleblowing pour le courage dont il a fait preuve en divulguant une masse de données qui jettent le doute sur la viabilité et la sécurité de la technologie de conduite autonome du constructeur automobile.

    Ryan Cooper, éditeur en chef d'un magazine, note par exemple que : « les régulateurs devraient examiner de plus près les fonctions d'assistance à la conduite en général, obligeant les fabricants à prouver qu'ils améliorent réellement la sécurité, plutôt que de faire confiance à la parole d'un oligarque fourbe ».

    Il continue en disant que :

    « La principale défense de FSD est l'hypothèse technologique utopique selon laquelle, quels que soient ses problèmes, elle ne peut pas être pire que les conducteurs humains. Tesla a affirmé que le taux d'accident FSD est un cinquième de celui des conducteurs humains, et Musk a fait valoir qu'il est donc moralement obligatoire de l'utiliser : "Au point où vous pensez que l'ajout d'autonomie réduit les blessures et la mort, je pense que vous avez une obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens.

    « Pourtant, si les propres données de Musk sur l'utilisation du FSD sont exactes, cela ne peut pas être vrai. En avril, il a affirmé qu'il y avait eu 150 millions de miles parcourus avec FSD lors d'un appel à un investisseur, un chiffre raisonnable étant donné que ce ne serait que 375 miles pour chacune des 400 000 voitures dotées de la technologie. En supposant que tous ces accidents impliquaient des FSD - une hypothèse plausible étant donné que les FSD ont été considérablement étendus au cours de la dernière année et que les deux tiers des accidents dans les données se sont produits pendant cette période - cela implique un taux d'accidents mortels de 11,3 décès pour 100 millions de kilomètres parcourus. Le taux global d'accidents mortels pour les voyages en voiture, selon la NHTSA, était de 1,35 décès pour 100 millions de kilomètres parcourus en 2022.

    « En d'autres termes, le système FSD de Tesla est probablement de l'ordre de dix fois plus dangereux en matière de conduite que les humains ».

    Tesla pour sa part n’en démord pas et continue de se vanter de disposer de la meilleure intelligence artificielle pour la résolution d’un des problèmes du monde réel, à savoir, la conduite automobile.

    Sur le terrain par contre, les plaintes se multiplient à l’encontre des véhicules dits autonomes de Tesla et autres Waymo

    « Ces engins s’arrêtent souvent devant nos bases et empêchent nos équipes de se rendre sur le terrain pour des interventions. Ils ont constitué des obstacles de diverses manières pour nos équipes et même pour des ambulances », rapporte le chef des pompiers de San Francisco qui rejoint des observateurs selon lesquels « les robotaxis ne sont pas encore prêts à partager les routes avec les humains. »


    Source : NHTSA

    Et vous ?

    La responsabilité des conducteurs : qui devrait être tenu responsable en cas d’accident impliquant un système de conduite automatisée comme l’Autopilot de Tesla ? Le conducteur, le constructeur automobile ou les deux ?
    Limites de l’automatisation : quelles sont les limites de la technologie actuelle en matière de conduite automatisée ? Devrions-nous être plus prudents quant à l’adoption de ces systèmes ?
    Transparence des données : les constructeurs automobiles devraient-ils être plus transparents sur la collecte et l’utilisation des données de télémétrie ? Comment pouvons-nous garantir que ces données sont utilisées de manière éthique ?
    Formation des conducteurs : comment pouvons-nous mieux former les conducteurs à l’utilisation des systèmes d’assistance à la conduite ? Quels sont les éléments essentiels à inclure dans la formation ?
    Rôle des régulateurs : quel devrait être le rôle des organismes de réglementation dans la supervision des technologies de conduite automatisée ? Comment peuvent-ils assurer la sécurité tout en favorisant l’innovation ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre habitué
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 60
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Par défaut
    J'aime beaucoup tous les pouces rouges alors que la majorité ne comprends rien à cette marque et sont complètement largués.
    Vous êtes, avec les médias mainstream, une vraie boussole qui indique le sud. Le meilleur indicateur pour savoir quand vendre ou acheter
    Nom : Capture d'écran 2024-04-29 155021.png
Affichages : 1613
Taille : 57,1 Ko

  7. #7
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    478
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 478
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    J'aime beaucoup tous les pouces rouges alors que la majorité ne comprends rien à cette marque et sont complètement largués.
    Vous êtes, avec les médias mainstream, une vraie boussole qui indique le sud. Le meilleur indicateur pour savoir quand vendre ou acheter
    Nom : Capture d'écran 2024-04-29 155021.png
Affichages : 1613
Taille : 57,1 Ko
    Tu es exactement le genre de pigeon que j'adore. Tesla, je les ai vendus vers 400 après les avoir acheté autour des 20.
    À bon entendeur...
    Quant à comprendre une marque, on n'est pas que dans la mode, là. As-tu entendu parler des derniers modèles de Xiaomi, vendus le tiers d'une Tesla équivalente ? Je vois aussi dans la région une quantité égale de Tesla et de MG. Là aussi, les gens qui achètent regardent plus le montant de la facture que "la marque".
    Bref. Dépêche-toi d'acheter Tesla, c'est ce que m'a dit ma concierge ce matin !

    PS : Media mainstream, nous ? Gamin, va donc te moucher, tu baves !

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 463
    Par défaut Une étude révèle que les correctifs apportés aux logiciels automobiles représentent plus de 20 % des rappels
    Une étude révèle que les correctifs apportés aux logiciels automobiles représentent désormais plus de 20 % des rappels
    les défaillances logicielles s'accélèrent et compromettent la sécurité des véhicules

    La transformation des véhicules modernes en des logiciels évolutifs sur roues introduit de nouvelles préoccupations en matière de sécurité. Une étude révèle que plus de 20 % des rappels de voitures sont désormais attribués à des correctifs logiciels, ce qui souligne la complexité croissante et la dépendance à l'égard des logiciels dans les véhicules modernes. Cette tendance ne met pas seulement en évidence la nature évolutive de la technologie automobile, mais soulève également de nombreuses questions importantes sur la sécurité des véhicules, les responsabilités des constructeurs automobiles et l'avenir de la conception des véhicules.

    Les rappels de véhicules dus aux défaillances logicielles grimpent en flèche

    Il fut un temps où le rappel d'un véhicule représentait un véritable casse-tête pour le conducteur, qui devait amener sa voiture chez un concessionnaire et attendre qu'elle soit réparée. La bonne nouvelle ? Cette procédure est de moins en moins nécessaire, car de nombreux correctifs peuvent maintenant être apportés par l'intermédiaire d'une mise à jour automatique lorsqu'un logiciel est défectueux. La mauvaise nouvelle ? Ces rappels sont de plus en plus nombreux. Plus d'un rappel sur cinq concerne maintenant des défaillances logicielles. C'est ce que révèle une récente analyse du cabinet d'avocats DeMayo Law.


    L'étude s'appuie sur les données de la NTHSA (National Highway Traffic Safety Administration) recueillies au cours d'une décennie de rappels. En 2014, seuls 34 des 277 rappels étaient liés à des correctifs logiciels, le pourcentage oscillant autour de 12 à 13 % jusqu'en 2020. En 2022, les correctifs logiciels représentaient près de 22 % des rappels, soit 76 rappels sur 348. L'année dernière, plus de 23 % des rappels étaient liés à des logiciels, soit 82 rappels sur 356.

    Les principaux constructeurs à émettre des rappels liés aux logiciels sont Chrysler, qui arrive en tête avec 82 rappels depuis 2014, suivi de Ford avec 66 rappels, et de Mercedes-Benz avec 60. Tesla se classe au 8e rang avec 26 rappels liés à des logiciels. Par exemple, le système d'aide à la conduite Autopilot de Tesla a fait à plusieurs reprises l'objet de rappel. En décembre 2023, un rappel massif dû au système Autopilot concernait plus de 2 millions de véhicules.

    Selon PwC, les voitures modernes contiennent environ 100 millions de lignes de code, soit bien plus qu'un avion de ligne qui en contient 14 millions ou qu'un avion de chasse qui en contient environ 25 millions. Il n'est donc pas surprenant que les correctifs logiciels représentent aujourd'hui plus de 20 % des rappels de véhicules. Selon les analystes, pour le meilleur ou pour le pire, cela représente un changement significatif dans la manière dont les rappels sont traités.

    Un porte-parole de DeMayo Law a déclaré : « notre analyse suggère que nous assistons à un changement dans la manière dont les rappels automobiles sont traités. Le nombre croissant de rappels liés à des logiciels, associé à la possibilité de résoudre les problèmes à distance, pourrait révolutionner le processus de rappel tant pour les constructeurs que pour les propriétaires de véhicules ». Mais la question est de savoir si ces correctifs logiciels sont efficaces.

    Les principales défaillances logicielles qui entraînent le rappel des véhicules

    Selon l'étude, les systèmes électriques constituent le domaine le plus problématique : il s'agit également du deuxième type de rappel le plus fréquent pour des réparations matérielles et il serait probablement en tête s'il n'y avait pas eu le rappel massif des airbags Takata, qui a touché plus de 100 millions de voitures dans le monde entier. Les autres systèmes affectés vont des caméras de recul et des airbags aux groupes motopropulseurs et à l'éclairage extérieur.

    Il convient de noter que tous les rappels impliquant une correction logicielle ne visent pas à résoudre un problème logiciel. Prenez le récent rappel du Jaguar I-Pace, qui a été déclenché par des incendies de batterie causés par des cellules de batterie endommagées lors de l'assemblage. La solution de Jaguar ? Une mise à jour logicielle qui fixe une nouvelle limite inférieure à la capacité de stockage de la batterie, l'empêchant ainsi de se recharger complètement à 100 %.

    Les composants logiciels les plus touchés

    • systèmes électriques : les fréquentes pannes logicielles et les problèmes d'intégration entre les composants électroniques en font le système le plus souvent rappelé ;
    • caméras de recul : rien qu'en 2023, les défaillances logicielles des caméras de recul ont entraîné des rappels concernant plus de 1,3 million de véhicules. Les problèmes proviennent souvent d'une mauvaise intégration avec les systèmes d'infodivertissement, ce qui se traduit par des écrans vides ou qui ne répondent pas ;
    • unités de contrôle des freins : essentiels pour la sécurité des véhicules, les défauts logiciels des unités de contrôle des freins ont entraîné le rappel de plus de 4,6 millions de véhicules de modèles et d'années différents ;
    • modules de commande du groupe motopropulseur : essentiels pour la gestion des performances du moteur, ces modules ont fait l'objet de rappels concernant environ 1,7 million de véhicules en raison d'erreurs logicielles ;
    • modules de contrôle du moteur : des problèmes de logiciel dans ces modules, qui régulent les fonctions du moteur, ont entraîné le rappel d'environ 677 714 véhicules ;
    • calculateurs d'injection de carburant : des logiciels défectueux ayant un impact sur la distribution et l'efficacité du carburant ont entraîné le rappel d'environ 437 032 véhicules.


    Implications pour les propriétaires de véhicules

    La prévalence croissante des correctifs logiciels a transformé le processus de rappel pour les propriétaires de véhicules. De nombreuses voitures modernes sont équipées pour recevoir des mises à jour en direct, ce qui permet aux constructeurs de déployer des correctifs logiciels à distance sans que les propriétaires aient à se rendre chez les concessionnaires. Si ce système est plus pratique et accélère la résolution des problèmes, il pose également de nouveaux défis.

    En outre, il soulève des préoccupations en matière de sécurité. Certains propriétaires ont signalé que des mises à jour destinées à résoudre des problèmes avaient involontairement provoqué d'autres problèmes, tels que des dysfonctionnements des systèmes d'infodivertissement ou d'autres anomalies électroniques.

    Tendances futures de la technologie automobile

    À mesure que l'industrie évolue vers des véhicules définis par logiciel, la dépendance à l'égard de systèmes logiciels complexes devrait s'accroître. Cette évolution implique l'intégration d'ordinateurs plus puissants et de codes sophistiqués dans les véhicules, ce qui simplifie potentiellement la conception mécanique, mais ajoute des couches de complexité au dépannage des logiciels. Les avis sur le sujet sont mitigés, certains conducteurs étant mécontents.

    Les constructeurs automobiles pourraient être soumis à une pression accrue pour garantir des tests logiciels rigoureux et des mesures de cybersécurité robustes afin d'éviter les failles qui pourraient entraîner des risques pour la sécurité ou des rappels à grande échelle. Le rappel du système Autopilot de Tesla, qui concerne 2 millions de voitures, fait désormais l'objet d'un examen fédéral. La NHTSA a testé le système mis à jour et a encore des questions.

    Que pensent les experts de cette tendance à la hausse ?

    À en croire les constructeurs, les clients voient leurs smartphones et leur console de jeux et veulent que ce type de divertissement soit intégré à leur prochaine voiture. La compétence logicielle est un nouveau champ de bataille entre les constructeurs automobiles mondiaux. Il est donc fort probable que la tendance à corriger les défauts des produits à l'aide de logiciels ne fera que s'intensifier, en particulier avec l'introduction de véhicules définis par logiciel.

    Cependant, une étude publiée en août 2023 par le cabinet d'études de marché JD Power révèle que l'augmentation de la technologie dans les voitures n'est pas nécessairement souhaitée par les clients et qu'elle n'améliore pas vraiment leur expérience de conduite. Selon le rapport de l'étude, il y a un certain nombre de technologies intégrées dans les véhicules modernes que les clients aiment utiliser, car ils pensent que ces systèmes répondent à leurs besoins.

    Mais en même temps, l'étude révèle qu'il y a beaucoup de technologies embarquées dans les véhicules modernes qui ne sont pas utilisées très souvent ou qui sont continuellement ennuyeuses. Pour certains conducteurs, les commandes gestuelles intérieures peuvent être problématiques. L'étude de JD Power fait écho à des études antérieures qui ont démontré que les boutons physiques sont plus performants que les écrans tactiles dans les nouvelles voitures.

    Les experts observent la hausse des rappels dus aux logiciels avec un mélange d'inquiétude et d'optimisme. Il s'agit d'une arme à double tranchant : si les problèmes logiciels peuvent souvent être résolus plus rapidement et à moindre coût que les problèmes matériels (via des mises à jour à distance), elle pose de nouveaux défis. La complexité croissante des logiciels automobiles augmente le risque de menaces de cybersécurité et rend le dépannage plus complexe.

    Les constructeurs doivent investir davantage dans le développement de logiciels et dans des protocoles de test rigoureux. Les mesures traditionnelles de contrôle de la qualité doivent évoluer pour prendre en compte les nuances de la fiabilité et de la sécurité des logiciels. Cela pourrait impliquer une collaboration plus étroite entre les constructeurs et les entreprises technologiques afin d'exploiter l'expertise en matière d'ingénierie logicielle et de cybersécurité.

    Conclusion

    La multiplication des défaillances logicielles à l'origine de rappels de véhicules est le reflet d'une période de transformation de l'industrie automobile. Alors que les véhicules sont de plus en plus connectés et dépendent de plus en plus de logiciels sophistiqués, les constructeurs, les régulateurs et les consommateurs doivent relever les défis qui en découlent. Si l'augmentation des correctifs logiciels est synonyme d'efficacité et de commodité, elle exige également une vigilance accrue pour que les avancées technologiques se traduisent par des véhicules plus sûrs et plus fiables pour tous les usagers de la route.

    Source : rapport d'étude du cabinet d'avocats DeMayo Law

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la hausse des rappels de véhicules dus aux défaillances logicielles ?
    Les véhicules modernes évoluent pour intégrer encore plus de technologies. Qu'en pensez-vous ?
    Selon vous, les nouvelles technologies intégrées dans les véhicules modernes sont-elles toutes nécessaires ?

    Voir aussi

    Le rappel du système Autopilot de Tesla, qui concerne 2 millions de voitures, fait désormais l'objet d'un examen fédéral. La NHTSA a testé le système mis à jour et a encore des questions

    Une enquête suggère qu'une grande partie des nouvelles technologies embarquées dans les voitures n'est pas nécessaire, les conducteurs estiment que nombre de ces technologies sont inutiles ou ennuyeuses

    Les constructeurs automobiles auraient commencé à admettre que les conducteurs détestent les écrans tactiles, plusieurs études ont montré qu'ils étaient moins efficaces que les boutons physiques

  9. #9
    Membre extrêmement actif Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 037
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 037
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    La responsabilité des conducteurs : qui devrait être tenu responsable en cas d’accident impliquant un système de conduite automatisée comme l’Autopilot de Tesla ? Le conducteur, le constructeur automobile ou les deux ?
    Ceclui qui a décidé le comportement de l'automatisme => le constructeur
    Et si le constructeur a laissé la main au conducteur pour régler certains comportements => les 2

    Citation Envoyé par Stéphane le calme Voir le message
    Formation des conducteurs : comment pouvons-nous mieux former les conducteurs à l’utilisation des systèmes d’assistance à la conduite ? Quels sont les éléments essentiels à inclure dans la formation ?
    Si la voiture est autonome il y a rien ni personne à former, le problème chez Tesla aujourd'hui c'est d'utiliser les conducteurs clients comme testeurs, ce qui devrait être la tache de pilotes professionnels attentifs et conscients.
    Citation Envoyé par Stéphane le calme Voir le message
    Rôle des régulateurs : quel devrait être le rôle des organismes de réglementation dans la supervision des technologies de conduite automatisée ? Comment peuvent-ils assurer la sécurité tout en favorisant l’innovation ?
    Comme en aéronautique ou rien est mis en service sans avoir été testé et validé, les autorités de régulations devraient empêcher la mise sur route de trucs bricolés mis à jours OTA vite fait en cas de soucis et laissé dans les mains de clients qu ne sont pas testeurs.
    Le régulateur devrait aussi imposer des boites noirs comme en aéronautique avec des protocoles d'enregistrements bien défini pour empêcher l'OTA en cas de pépin.

  10. #10
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par petitours Voir le message
    Si la voiture est autonome il y a rien ni personne à former, le problème chez Tesla aujourd'hui c'est d'utiliser les conducteurs clients comme testeurs, ce qui devrait être la tache de pilotes professionnels attentifs et conscients.
    Fun fact : en 2010 des pilotes professionnels testaient chaque nouvelle gamme de pneus Michelin dans des conditions de conduites normales.
    Le contraste de dangerosité entre un pneu et un système de conduite est pourtant majeur.
    Mais je suppose que mon absence d'analyse de leur cours de la bourse biaise mon avis...

  11. #11
    Membre extrêmement actif Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 037
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 037
    Par défaut
    Citation Envoyé par totozor Voir le message
    Le contraste de dangerosité entre un pneu et un système de conduite est pourtant majeur.
    la différence ne me semble pas majeure non

  12. #12
    Membre habitué
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 60
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Par défaut
    Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
    3-6 mois avant, ils savent à peu près comment va fonctionner une version. Après il y a quelques mois pour corriger les bugs et effectuer les tests de sécurité. Puis ils diffusent la version aux employés de Tesla(quelques semaines si tout est ok) et seulement après ça sort pour le grand public.
    A vous lire, on dirait qu'ils font tester les clients.
    Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 463
    Par défaut Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot
    Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot, d'après la NHTSA
    Elon Musk a donc décidé de virer les ingénieurs concernés pour arranger les choses

    Les défaillances du système d'aide à la conduite Autopilot de Tesla persistent et entraînent de nouveaux cas d'accidents. La NHTSA (National Highway Traffic Safety Administration) des États-Unis rapporte qu'au moins 20 cas d'accidents impliquant l'Autopilot ont été signalés après les correctifs apportés par Tesla à son logiciel à la suite du rappel de plus de deux millions de véhicules en Amérique du Nord. Les régulateurs fédéraux ont intensifié leur enquête sur l'Autopilot et ont demandé plus d'informations sur la sécurité du système. Entre-temps, le PDG de Tesla, Elon Musk, aurait congédié certains des ingénieurs concernés pour arranger les choses.

    Tesla a rappelé en décembre plus de deux millions de véhicules équipés de son système d'aide à la conduite Autopilot. Ce rappel faisait suite à une enquête de la NHTSA sur des dizaines de cas d'accidents impliquant l'Autopilot, dont plusieurs ont été mortels. Le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs de Tesla sont attentifs lorsqu'ils utilisent l'Autopilot. La NHTSA avait constaté que le nom "Autopilot" pouvait amener les conducteurs à croire faussement que l'automatisation a des capacités plus importantes. Tesla avait rejeté ces conclusions, mais avait accepté d'apporter des correctifs.

    Cependant, les autorités américaines ont annoncé fin avril avoir ouvert une nouvelle enquête sur l'Autopilot. L'enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel. Dans une lettre datée du lundi 6 mai 2024, la NHTSA a fait part de plusieurs préoccupations concernant la solution proposée par Tesla. L'agence a déclaré qu'une analyse préliminaire a identifié au moins 20 accidents dans des véhicules Tesla équipés de la version mise à jour de l'Autopilot. Les nouveaux cas d'accidents semblent similaires à ceux qui ont entraîné le rappel.

    Nom : Capture d'écran 2024-05-08 094358.png
Affichages : 8361
Taille : 152,7 Ko

    Parmi ces accidents, neuf auraient impliqué des Teslas qui ont percuté d'autres véhicules ou personnes sur leur trajectoire - des accidents de type "frontal plane", dans le jargon de l'agence. Ces accidents semblent indiquer que le système de vision de Tesla, basé sur des caméras, ne permet pas de détecter correctement certains objets devant le véhicule lorsque le système Autopilot est activé. La NHTSA a demandé diverses informations sur la manière dont Tesla a mis au point les correctifs, notamment des données qui lui permettront de comparer les performances des véhicules dans ce type d'accidents avant et après le rappel.

    L'agence demande également à Tesla de déterminer combien de fois ses véhicules ont donné aux conducteurs un avertissement "mains sur le volant" - une notification donnée aux conducteurs qui retirent leurs mains du volant alors que la fonction Autopilot est activée (les utilisateurs d'Autopilot sont tenus d'être prêts à prendre le contrôle "à tout moment", selon Tesla). Parmi les autres détails demandés par la NHTSA figurent des explications sur la politique de suspension d'une semaine de Tesla en cas d'utilisation abusive de l'Autopilot et des données sur les différentes façons dont le logiciel peut être activé par les conducteurs.

    La NHTSA cherche également à savoir si Tesla a utilisé la science des facteurs humains dans sa conception, et notamment le nombre d'employés qu'il a consacrés à cette conception. L'agence demande également à Tesla de fournir des informations sur la manière dont il recueille les données télémétriques en réponse aux accidents qui se produisent lorsque le véhicule est équipé du système Autopilot ou de la fonction de conduite autonome Full Self-Driving (FSD). La NHTSA souhaite également obtenir davantage de détails sur la manière dont l'entreprise utilise sa caméra embarquée pour surveiller l'attention du conducteur.

    La NHTSA conclut sa lettre en soulignant que si Tesla ne répond pas aux demandes qu'elle a formulées, il pourrait se voir infliger une amende journalière de 27 168 dollars par infraction, ce qui pourrait représenter une amende maximale de 135 millions de dollars, selon la loi américaine. L'entreprise a jusqu'au 1er juillet 2024 pour répondre. Les correctifs du rappel devaient également permettre de déterminer si l'Autopilot devait être autorisé à fonctionner sur des routes autres que les autoroutes à accès limité. (La solution consistait à multiplier les avertissements au conducteur sur les routes comportant des intersections.)

    Cependant, les préoccupations liées à l'Autopilot ne cessent de se multiplier et Tesla peine à proposer des correctifs adéquats. Mais le PDG Elon Musk aurait supprimé certains postes au sein des équipes chargées du développement et de la sécurité de l'Autopilot. De nouveaux rapports indiquent que l'entreprise a licencié de nouveaux employés ce week-end. Le nombre de personnes qui ont perdu leur emploi lors de cette dernière vague de licenciements n'est pas connu, mais selon les rapports et certains travailleurs concernés, les coupes ont été réalisées dans les équipes des logiciels, des services et de l'ingénierie.


    Pour rappel, dans sa lettre, la NHTSA demande à Tesla d'identifier chaque poste impliqué dans l'évaluation du comportement humain et les qualifications des travailleurs. Et elle demande à Tesla de dire si les postes existent toujours. Phil Koopman, professeur à l'université Carnegie Mellon qui étudie la sécurité de la conduite automatisée, pense que la lettre montre que le rappel n'a pas permis de résoudre les problèmes critiques l'Autopilot. « Il est assez clair pour tous ceux qui regardent que Tesla a essayé de faire le moins de correctifs possible pour voir ce qu'ils pouvaient faire », a déclaré Koopman à propos de la mise à jour.

    « La NHTSA doit réagir avec force, sinon d'autres constructeurs automobiles commenceront à proposer des solutions inadéquates », a-t-il ajouté. Selon Missy Cummings, professeur d'ingénierie et d'informatique à l'Université George Mason qui étudie les véhicules automatisés, la NHTSA répond aux critiques des législateurs à propos d'un manque perçu d'action sur les véhicules automatisés. Elle a déclaré qu'elle soupçonne Musk d'avoir licencié toute personne ayant des connaissances en matière de comportement humain, une compétence clé nécessaire pour déployer des systèmes partiellement automatisés tels que l'Autopilot.

    Ces systèmes ne peuvent pas se conduire eux-mêmes et nécessitent que des humains soient prêts à intervenir à tout moment. Cummings affirme : « si vous avez une technologie qui dépend de l'interaction humaine, vous avez intérêt à avoir quelqu'un dans votre équipe qui sait ce qu'il fait dans ce domaine ». Cummings affirme que ses recherches ont montré qu'une fois qu'un système de conduite prend le relais de l'homme, le cerveau humain n'a plus grand-chose à faire. De nombreux conducteurs ont tendance à trop se fier au système et à s'en désintéresser.

    « Vous pouvez avoir la tête fixée dans une position, vous pouvez potentiellement avoir les yeux sur la route, et vous pouvez être à des millions de kilomètres dans votre tête. Toutes les technologies de surveillance du conducteur au monde ne vous forceront pas à être attentif », a-t-elle déclaré. Selon les experts en sécurité, la NHTSA pourrait demander d'autres mesures correctives pour les rappels, obliger Tesla à limiter les endroits où l'Autopilot peut fonctionner, ou même forcer l'entreprise à désactiver le système jusqu'à ce qu'il soit réparé.

    Source : la lettre de la NHTSA

    Et vous ?

    Quel est votre avis sur le sujet ?
    Quelles conclusions pourraient être tirées des informations demandées par la NHTSA à Tesla au sujet de l'Autopilot ?
    Les régulateurs américains doivent-ils interdire l'Autopilot et l'autoriser à nouveau une fois que Tesla rendra le logiciel plus sûr ?
    Que pensez-vous de la rumeur selon laquelle Elon Musk aurait viré certains des ingénieurs qui travaillaient sur l'Autopilot ?

    Voir aussi

    Tesla licencie de nouveaux employés alors que l'hécatombe entre dans sa quatrième semaine, des employés des équipes des logiciels, des services et de l'ingénierie disent avoir été licenciés

    Tesla licencie plus de 10 % de ses effectifs, soit au moins 14 000 postes, et perd des cadres supérieurs. Elon Musk est rendu en partie responsable de la situation par ses prises de parole sur Twitter/X

    Elon Musk licencie de nouveaux cadres de Tesla et la totalité de l'équipe de 500 personnes qui travaillait sur les superchargeurs, ce qui pourrait avoir des retombées sur la recharge des véhicules Tesla

  14. #14
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut Tesla doit faire face à un procès sur des allégations de conduite autonome
    Tesla doit faire face à un procès intenté par des propriétaires de véhicules, accusant Elon Musk de les avoir induit en erreur sur les capacités de conduite autonome de leurs véhicules.

    Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

    Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

    Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

    L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

    Un juge américain a rejeté récement la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


    La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

    L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

    L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

    Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

    Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais elle a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

    Source : La juge du district de San Francisco, Rita Lin

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

    Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #15
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 235
    Par défaut Un propriétaire de Tesla affirme que le Full Self-Driving de sa voiture n'a pas détecté un train en marche
    Un propriétaire de Tesla affirme que la technologie de conduite autonome de sa voiture n'a pas détecté un train en marche
    Une vidéo de l’incident montre sa Tesla qui a failli s'écraser contre ledit train

    Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle le sera plus encore avec la récente publication d’une vidéo qui montre une Tesla à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

    C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

    « Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


    L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

    Le Full Self-Driving de Tesla était déjà une arnaque bien avant le lancement de la bêta, d’après un testeur

    Le premier élément y relatif est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.

    Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.

    Deuxio, le testeur est d’avis que « le FSD n'est qu'un gadget. » Le pirate a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même. » En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui déboursent de l’argent pour s’en approprier.

    Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seul Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

    Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar en matière de sécurité et veulent. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

    Nom : 0.png
Affichages : 48548
Taille : 34,3 Ko

    Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving

    Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

    Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

    Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

    L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

    Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


    La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

    L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

    L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

    Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

    Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

    Source : Vidéo de l’incident

    Et vous ?

    Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
    Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?

    Voir aussi :

    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

    Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #16
    Membre éprouvé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 453
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 453
    Par défaut
    Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
    - Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
    - Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
    - ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?


    Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

    Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.

  17. #17
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 061
    Par défaut
    c'est de toute façon les limites des réseaux de neurones, le résultat n'est pas garantie.
    Une liste de 50 conditions if c'est moche/dur à lire mais c'est du code solide écrit en dur et reproductible.

    Un réseau de neurone, le comportement est non prédictible, même bien entrainer sur un cas "simple", le taux d'erreur et de 1% au mieux par exemple.
    la reconnaissance d'image et les classifier de ce que j'ai utilisé en python avec la lib Scikit-learn, j'ai toujours pour les projets d'entreprises eux des taux positif au mieux de 90% pour de la reconnaissance d'image et c'est des cas bien plus simple que la conduite autonome qui doit reconnaitre des milliers d’objets sur la route dont le train.


    pour peu qu'on utilise les llm avec chatgpt par exemple on voit vite les problèmes, il m'invente des API qui n'existe pas, parfois même m'invente une syntaxe qui n'existe pas...

    Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain, c'est tres difficile de programmer ces algos pour qu'en cas de doute de laisser l'humain reprendre le contrôle. Un simple pixel sur un panneaux peut faire comprendre l'inverse du panneau.

  18. #18
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 558
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 558
    Par défaut
    Citation Envoyé par calvaire Voir le message
    Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain
    Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
    Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)

  19. #19
    Membre très actif

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2013
    Messages
    412
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : Novembre 2013
    Messages : 412
    Billets dans le blog
    2
    Par défaut Un retour à moins d'électronique et aux solutions simples s'impose
    Le tout-électronique/informatique est une erreur monstrueuse, d'autant plus que la qualité des logiciels est très mauvaise depuis de nombreuses années

    Il faut légiférer sur ce sujet, et revenir à des modèles de véhicules dans lesquels l'électronique est réservée à la gestion de l'allumage et des systèmes ABS. Pour le reste, on repasse aux technologies des années 1970-1980, largement suffisantes

  20. #20
    ALT
    ALT est déconnecté
    Membre Expert
    Avatar de ALT
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2002
    Messages
    1 379
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 66
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Retraité
    Secteur : Service public

    Informations forums :
    Inscription : Octobre 2002
    Messages : 1 379
    Par défaut
    À JP CASSOU : Revenir à la technologie des années 1980 ? Ah non, alors !
    Ayant connu (& longtemps utilisé) cette technologie, je n'y reviendrai pas. Car, grâce à l'électronique moderne :
    • Les moteurs démarrent par tous les temps & consomment beaucoup moins (injection électronique).
    • La climatisation est efficace & facilement réglable.
    • L'ABS est utile, pour ne pas dire indispensable.
    • Les essuie-glaces & phares automatiques sont un vrai confort.
    • Le régulateur de vitesse est indispensable de nos jours.
    • La boîte de vitesses automatique, c'est un régal (confort en accélération, optimisation du régime moteur...)
    • Et j'en oublie !

    Maintenant, tout dépend du sérieux du constructeur, évidemment.

Discussions similaires

  1. Réponses: 1
    Dernier message: 13/06/2024, 19h14
  2. Réponses: 2
    Dernier message: 11/01/2021, 18h04
  3. Réponses: 9
    Dernier message: 10/12/2019, 08h07
  4. Twitter fait face à une poursuite en recours collectif pour discrimination
    Par Stéphane le calme dans le forum Actualités
    Réponses: 2
    Dernier message: 23/03/2015, 12h45
  5. Microsoft a confirmé avoir fait face à une panne de Bing
    Par Stéphane le calme dans le forum Actualités
    Réponses: 2
    Dernier message: 11/01/2015, 14h49

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo