IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut Les parts de marché de Tesla connaissent des niveaux de baisse jamais enregistrés depuis 2017
    Tesla retire le terme « FSD » (Full Self-Driving) du nom de son logiciel de conduite autonome en Chine,
    FSD a déjà été taxée de publicité mensongère qui laisse croire que les véhicules Tesla sont entièrement autonomes

    Tesla a récemment annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Ce changement, bien que mineur en apparence, soulève des questions sur la manière dont la société d'Elon Musk navigue dans un environnement réglementaire de plus en plus strict, notamment dans un marché aussi complexe et crucial que celui de la Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.

    Le contexte de l'innovation automobile et des défis réglementaires en Chine

    Tesla a présenté son logiciel de conduite autonome, le Full Self-Driving (FSD), comme une révolution dans le domaine des voitures « intelligentes ». Cette technologie promettait d’offrir une conduite totalement autonome, avec des capacités allant de la gestion de la vitesse à la navigation dans les rues sans intervention humaine. Cependant, la réalité de la conduite autonome n’a pas répondu à toutes les attentes. Les régulations mondiales sur la sécurité et les tests en conditions réelles ont exposé des limites à la technologie, incitant de nombreux pays à adopter une approche plus prudente vis-à-vis de son déploiement.

    En Chine, Tesla s'est vu confronté à des régulations strictes concernant la sécurité des véhicules autonomes.

    Tesla a modifié le nom de son logiciel de conduite intelligente dans le pays, en supprimant la mention FSD du pack le plus cher. Le changement a été effectué le 25 mars et le nom du logiciel vendu au prix de 64 000 yuans RMB (8 810 €) est passé de « FSD Intelligent Assisted Driving » (FSD 智能辅助驾驶) à « Intelligent Assisted Driving » (智能辅助驾驶). Le nom de la version de base gratuite du logiciel d'aide à la conduite a été modifié, passant de « Basic Version Assisted Driving » (基础版辅助驾驶) à « Basic Assisted Driving » (基础辅助驾驶).

    La description générale de ces fonctions a été modifiée, passant de « Autopilot Automated Assisted Driving » (Autopilot自动辅助驾驶) à « Assisted Driving » (辅助驾驶).

    Hormis le changement de nom, les fonctions de ces trois packs restent inchangées et correspondent respectivement à FSD (Full Self-Driving), Enhanced Autopilot (EAP) et Basic Autopilot (BAP).

    Tesla a initialement appelé FSD « Full Self-driving Capability » (完全自动驾驶能力) en Chine, ce qui signifie littéralement avoir une capacité de conduite entièrement autonome, bien que cela ne soit pas vrai.

    Nom : ecran.png
Affichages : 4903
Taille : 116,7 Ko
    Une capture d'écran du site web de Tesla Chine montre le dernier nom donné par Tesla à son logiciel de conduite intelligente.

    Le retrait du terme "FSD" de son logiciel dans ce pays pourrait être perçu comme une tentative de se conformer à des exigences locales et d’apaiser les préoccupations des autorités, qui sont particulièrement vigilantes vis-à-vis des nouvelles technologies, surtout celles liées à la sécurité publique et à la confidentialité des données.

    Le 25 février, Tesla a commencé à déployer en Chine des fonctions de conduite intelligente avancées, similaires à la FSD aux États-Unis, et a évité de mentionner la FSD dans l'introduction à l'époque. Cela a été perçu comme l'introduction officielle de la FSD en Chine. Le nom de la fonction a ensuite été modifié, passant de « Full Self-driving Capability » à « FSD Intelligent Assisted Driving ».

    Le 17 mars, Tesla a annoncé qu'elle permettrait aux véhicules éligibles d'expérimenter gratuitement les fonctions FSD jusqu'au 16 avril. Toutefois, le fabricant américain de véhicules électriques a ensuite suspendu l'essai gratuit, expliquant sur Weibo que c'était parce qu'il devait encore terminer l'approbation du logiciel de conduite assistée intelligente. « Toutes les parties font activement avancer le processus concerné et, une fois qu'il sera prêt, il sera diffusé dès que possible », a déclaré le service d'assistance à la clientèle de Tesla sur Weibo.

    Ces dernières années, Tesla a permis aux clients chinois d'acheter le logiciel FSD pour 64 000 yuans RMB. Toutefois, la FSD n'étant pas disponible en Chine, même les vendeurs de Tesla ne recommandaient pas aux clients d'acheter le logiciel. En revanche, la plupart des constructeurs automobiles locaux, y compris Xpeng et BYD, fournissent leurs fonctions ADAS (système avancé d'aide à la conduite) gratuitement aux propriétaires de voitures.

    La Californie adopte une loi qui interdit à Tesla l'appellation Full Self-Driving

    Pour la Californie, c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

    « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

    Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée

    Tesla a entamé l’alignement avec le commentaire du texte de loi californien ci-dessus, modifiant la terminologie marketing autour de son logiciel de conduite autonome. Auparavant, les clients avaient la possibilité d'acheter le « Full Self-Driving Capability » (capacité de conduite autonome complète), avec un texte additionnel indiquant que le FSD sera « continuellement améliorée ». Ce texte spécifique n'est plus proposé, et à la place, les clients ne peuvent désormais acheter que le « FSD (supervisé) », qui ne mentionne plus l'amélioration continue. Le changement apparaît comme un aveu de publicité mensongère.

    Nom : fsd.png
Affichages : 1128
Taille : 60,6 Ko

    De multiples incidents illustrent le fait que l’utilisation de la terminologie "Full Self-Driving" par Tesla constitue une exagération des capacités de ses véhicules

    Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.


    Une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier

    C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

    « Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


    L'accident s'est produit dans la matinée du 8 mai. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

    Tesla procède même à des falsifications de l’autonomie de ses véhicules selon certains rapports

    Selon une enquête de Reuters, le constructeur aurait truqué le logiciel qui affiche la distance restante avant de devoir recharger la batterie. Au lieu de montrer la valeur réelle, le logiciel aurait donné une estimation « optimiste » de l’autonomie, sur ordre du PDG Elon Musk il y a environ 10 ans.

    Cette pratique aurait entraîné un afflux de plaintes et de demandes de réparation de la part des clients qui s’attendaient à une plus grande autonomie, surtout par temps froid. Certains propriétaires ont rapporté des autonomies inférieures à la moitié de celles annoncées, notamment pour le Model 3 qui promet 374 miles (602 km) sur une charge complète. Un conducteur a même déclaré que sa batterie se vidait si rapidement par temps froid qu’il devait s’arrêter pratiquement toutes les heures pour recharger.

    La distance que les véhicules électriques peuvent parcourir avant de devoir être rechargés est l'un des principaux inconvénients auxquels les voitures sont confrontées par rapport aux véhicules à essence. L'ordre de gonfler l'autonomie affichée sur les voitures a été donné par le PDG de Tesla, Elon Musk, il y a environ 10 ans, selon Reuters. L'agence de presse a déclaré qu'elle ne pouvait pas déterminer si les algorithmes étaient toujours utilisés.

    Pour faire face à ce problème, Tesla aurait créé une équipe secrète à Las Vegas, baptisée « Diversion Team », chargée d’annuler les rendez-vous liés à l’autonomie. Selon Reuters, les employés de cette équipe célébraient chaque annulation en jouant du xylophone acheté par un superviseur. Certains collègues se seraient même levés sur leurs bureaux pour applaudir chaque annulation. Les managers de Tesla auraient dit aux employés qu’ils faisaient économiser 1 000 dollars à l’entreprise pour chaque annulation.

    Full Self-Driving de Tesla obtient la pire note globale des tests de sécurité des véhicules

    L’IIHS (l’Insurance Institute for Highway Safety), un groupe indépendant non lucratif dédié à la réduction des décès, des blessures et des dommages matériels résultant d’accidents de la route, a testé 14 systèmes de conduite automatisée partielle. Ces systèmes, qui comprennent des fonctions telles que le régulateur de vitesse adaptatif, la direction coopérative, l’assistance au maintien de la trajectoire, les changements de voie automatisés et les systèmes qui permettent parfois au conducteur de lâcher le volant, sont censés rendre nos expériences de conduite plus simples et plus sûres.

    Cependant, aucun des systèmes testés n’a reçu la note “bon”. Seul un système a été jugé “acceptable”, deux ont été classés comme “marginaux” et les autres ont été qualifiés de “pauvres”. Parmi les systèmes évalués, celui de Tesla, le Full Self-Driving (Beta) Version 2023.7.10, a reçu la pire évaluation globale, avec une note “pauvre” dans six catégories et “acceptable” dans les deux autres.

    Source : site de Tesla en Chine

    Et vous ?

    Tesla pourrait-elle étendre cette décision à d'autres marchés en dehors de la Chine ? Quels impacts cette modification pourrait-elle avoir sur l'image de marque de Tesla dans d'autres pays, notamment ceux où la réglementation est moins stricte ?

    La suppression du terme "FSD" signifie-t-elle que Tesla a abandonné ses ambitions de conduite autonome totale ? Quelle est la vision future de Tesla concernant la conduite entièrement autonome, et comment cette décision s'inscrit-elle dans cette vision à long terme ?

    Quelles répercussions cette décision pourrait-elle avoir sur la concurrence entre Tesla et d'autres entreprises de technologie automobile, comme Waymo ou Cruise ? Tesla perd-elle un avantage concurrentiel dans la course à la conduite autonome, ou cette décision lui permet-elle de se concentrer sur des solutions plus réalisables à court terme ?

    Voir aussi :

    Donald Trump menace de déporter les « terroristes » qui protestent contre Tesla vers le Salvador et de leur faire vivre l'enfer pendant 20 ans tout en continuant à prendre la défense d'Elon Musk

    Donald Trump soutient son coprésident Elon Musk et déclare que les attaques contre les concessionnaires Tesla seront traitées comme du « terrorisme », mais son soutien pourrait nuire davantage à Tesla

    Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test
    Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test, 90 % des interrogées estiment qu'une voiture autonome qui renverse un enfant devrait être interdite

    Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test dans un bus scolaire. Lors du test, une Model Y équipée du logiciel FSD passait devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. La Tesla n'a pas manqué de détecter le mannequin, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Selon le Dawn project, 90 % des personnes interrogées estiment qu'une voiture autonome qui renverse un enfant traversant la route devrait être interdite.

    En mars dernier, Tesla a annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.

    Récemment, un rapport a révélé que Tesla s'apprête à mettre en circulation quelques robotaxis à Austin. Il ne s'agira pas des robotaxis CyberCab que Tesla a "dévoilés" à la fin de l'année 2024, mais de Model Y classiques équipés d'une version du logiciel dit "entièrement autonome" de Tesla. Pourtant, selon les résultats du dernier test réalisé par le Dawn Project, une organisation dédiée à la sécurité fondée par Dan O'Dowd, diplômé du Caltech et ingénieur logiciel, la réponse est clairement "pas terrible". Du moins, si l'on se soucie du fait que les voitures s'arrêtent pour laisser descendre les enfants des bus scolaires.

    Lors du test, O'Dowd a conduit un Model Y équipé du logiciel FSD 13.2.9 devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. Ils ont ensuite placé un mannequin de la taille d'un enfant sur la trajectoire de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a roulé sur l'enfant comme s'il n'était pas là.

    Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue. On pourrait penser qu'une personne aussi éprise d'enfants qu'Elon Musk voudrait au moins que ses produits évitent de renverser des enfants, n'est-ce pas ?


    Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.

    Elon Musk how many kids does FSD need to run over before you fix this?

    I warned about this danger at the 2023 Super Bowl!

    [image or embed]

    — Dan O'Dowd (@realdanodowd.bsky.social) 28 mai 2025 à 17:17
    Le Dawn Project a documenté les problèmes du FSD pour s'arrêter devant les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité pendant le Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, ce dont il avait averti s'est apparemment produit dans la vie réelle.

    Le conducteur d'une Tesla Model Y a percuté Tillman Mitchell, un lycéen de la Haliwa-Saponi Tribal School à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que le mode Autopilot ou Full Self Driving était activé au moment de l'accident. Mitchell a subi des « blessures mortelles » et a été transporté par hélicoptère vers un hôpital voisin pour y être soigné, où il a heureusement survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement le genre de blessures dont on se remet rapidement. Cet incident est loin d'être le seul cas où une Tesla n'a pas réussi à s'arrêter.

    Si le logiciel dit « Full Self-Driving » de Tesla ne fonctionnait que sur les autoroutes, comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules à l'arrêt, tels que les bus scolaires, resterait un problème. Mais avec le projet de déployer dans quelques semaines une flotte de Model Y comme robotaxis dans les rues des villes, cela devient encore plus préoccupant.

    Pour rappel, un autre rapport a révélé que les véhicules Tesla avec le logiciel Full Self-Driving actif percutent à mort les motocyclistes par l'arrière, plus que toute autre voiture. Selon le rapport, ce n'est pas que les voitures autonomes en général sont dangereuses pour les motos : ce problème est propre à Tesla. Aucun autre constructeur automobile ou fournisseur de technologie similaire n'a signalé un seul accident mortel de moto au cours de la même période. Le rapport ajoute plus de doute à l'autonomie.


    Voici le rapport du Dawn Project :

    Le Dawn Project a prouvé de manière concluante que le logiciel de conduite autonome de Tesla :

    • Renverserait un enfant traversant la route
    • Dépasserait un bus scolaire à l'arrêt
    • Ignorerait les panneaux « Sens interdit » et « Route fermée »
    • Heurterait un bébé dans une poussette

    90 % des personnes interrogées s'accordent à dire qu'une voiture autonome qui renverserait un enfant traversant la route devrait être immédiatement interdite de circulation sur les routes publiques.

    Le logiciel de conduite autonome de Tesla doit donc être immédiatement retiré de la circulation jusqu'à ce que tous ces problèmes soient résolus.

    Mais les régulateurs refusent d'interdire le logiciel, les politiciens n'agissent pas parce que le public ne l'a pas demandé, et Tesla continue de commercialiser ce produit défectueux et dangereux, même si Elon Musk est au courant de ces défauts.

    Nous avons publié cinq annonces dans le New York Times, fait paraître des centaines d'articles et même diffusé une publicité pendant le Super Bowl, mais Tesla refuse toujours de corriger les défauts ou de retirer le logiciel de la circulation.

    Elon Musk et Tesla n'ont pas agi comme n'importe quelle autre entreprise respectable l'aurait fait face à des preuves concrètes de graves défauts de sécurité, à savoir rappeler le produit jusqu'à ce que les défauts de sécurité soient corrigés.

    Les raisons suivantes n'ont pas suffi à convaincre Elon Musk de faire ce qu'il fallait :

    • La moralité
    • L'empathie pour les victimes
    • Les reproches des régulateurs
    • La publicité négative

    C'est maintenant à vous d'utiliser votre arme la plus puissante, couper la source de revenus d'Elon Musk : les ventes de voitures neuves Tesla. Les boycotts ont déjà été une mesure efficace contre Elon Musk sur Twitter (X). Les ventes de voitures Tesla sont les fonds qui permettent à son logiciel de conduite autonome défectueux de rester sur les routes et qui soutiennent ses autres projets dépravés.

    Notre mission reste la même : retirer le logiciel de conduite autonome défectueux de Tesla de la circulation.
    Source : Dawn Project

    Et vous ?

    Pensez-vous que ce test est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    4 millions de voitures défectueuses : Tesla fait face à une facture de 10 milliards de dollars. Tesla doit soit mettre à niveau soit indemniser les propriétaires de véhicules plus anciens

    Tesla annonce des résultats décevants avec une baisse de 71 % du bénéfice net au T1 2025. Musk met en garde contre l'impact des droits de douane et veut réduire le temps consacré au DOGE au profit de Tesla

    Tesla a le taux d'accidents mortels le plus élevé parmi les marques automobiles, selon une étude, malgré des fonctionnalités telles qu'Autopilot et Full-Self Driving, censées réduire l'erreur humaine
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    Comme si c'était moins grave de renverser un adulte ?!
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?

  4. #4
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    Oui, pendant un certains temps en tout cas.
    Pourquoi un enfant c'est plus grave qu'un adulte?
    Parce qu'un adulte a grandi dans cet environnement , il le connait et sait le gérer, mieux qu'un enfant.
    Ce n'est pas un hasard si nous sommes plus exigeants avec nos enfants qu'avec nous même. Parce que la règle qu'on leur impose est devenue naturelle pour nous et nous la contournons régulièrement parce que comprenons mieux l'environnement routier dans lequel nous évoluons.

  5. #5
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 046
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 046
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    La grosse différence se trouve dans la phrase ci-dessous, car un humain aurait tenté de l'éviter :
    Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue.

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 658
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 658
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Comme si c'était moins grave de renverser un adulte ?!
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    Je pense que tu n'as pas compris la news. Le FSD détecte les adultes et s'arrête, encore heureux. Sur un enfant qui traverse, le FSD décide que ça ne vaux pas la peine de s'arrêter et il préfère écraser l'enfant que de s'arrêter. Bizarrement le FSD détecte bien l'enfant, mais il ne veut pas s'arrêter, comme si c'était un lapin, ça ne vaux pas la peine de ralentir une Tesla pour si peu...
    On pourrais donc se laisser à penser que ce FSD est très dangereux.
    L'autopilot de Waymo ne fait pas ça, c'est le Tesla FSD qui déconne et qui est très dangereux.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Tesla renonce à sa promesse initiale d'offrir une conduite autonome sans surveillance
    Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance
    les problèmes techniques persistent et le logiciel rebute les clients

    Depuis 2016, Tesla affirmait que tous ses véhicules en production seraient capables d'atteindre une capacité de conduite autonome sans supervision. Le PDG Elon Musk a affirmé que cela se produirait « d'ici la fin » de chaque année depuis 2018. Tesla a même vendu à ses clients un logiciel appelé « Full Self-Driving » (FSD) pour un montant pouvant atteindre 15 000 dollars, promettant que le système d'aide à la conduite deviendrait entièrement autonome grâce à des mises à jour logicielles. Mais près d'une décennie plus tard, il n'en est rien. Alors que le logiciel est confronté à de nombreuses défaillances techniques, Tesla décide de renoncer à cette promesse.

    En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».

    Aujourd'hui, Tesla a modifié la signification de « conduite entièrement autonome » pour renoncer à sa promesse initiale d'offrir une autonomie sans supervision. L'entreprise a déjà confirmé que tous les véhicules produits entre 2016 et 2023 ne disposent pas du matériel nécessaire pour offrir une conduite autonome comme promise. Cela signifie que Tesla a menti lorsqu'il a promis à ses clients qu'ils pourraient un jour convertir leurs véhicules en « robotaxis ».

    Tesla a modifié son discours et ne vend désormais plus que des systèmes « Full Self-Driving (Supervised) » (conduite entièrement autonome sous supervision) à ses clients. Les petits caractères précisent que cela ne rend pas le véhicule « autonome » et ne promet pas cette fonctionnalité. Ainsi, les clients qui achètent le Full Self Driving aujourd'hui n'achètent pas la capacité de conduite autonome sans supervision comme l'ont fait les acheteurs précédents.

    Tesla a vendu le pack Full Self-Driving Capability pour un montant pouvant atteindre 15 000 dollars, assurant aux clients que le système évoluerait vers une autonomie totale grâce à des mises à jour en direct. Mais aujourd'hui, l'on est bien loin de la vision initiale. En réalité, le Full Self-Driving est désormais commercialisé comme un simple système avancé d'aide à la conduite (ADAS) sans aucun engagement en matière d'autonomie sans surveillance.

    Full Self-Driving : une nouvelle définition extrêmement vague

    La conduite entièrement autonome promise par Tesla depuis 2016 et son PDG Elon Musk n'arrivera peut-être jamais. Près d'une décennie plus tard, cette promesse n'a toujours pas été tenue et l'entreprise est en train de modifier ses plans pour l'avenir. Le quatrième volet du « Master Plan » de Tesla recentre la vision de l'entreprise autour de l'intelligence artificielle, des robots humanoïdes et de ce que les dirigeants appellent « abondance durable ».

    Nom : Capture d'écran 2025-09-08 090509.png
Affichages : 4411
Taille : 184,7 Ko

    De plus, le conseil d'administration de Tesla vient de soumettre à l'approbation des actionnaires un nouveau programme de rémunération sans précédent pour le PDG, qui pourrait rapporter à Elon Musk jusqu'à 1 000 milliards de dollars en options sur actions, sous réserve de la réalisation de certains objectifs.

    L'une de ces étapes importantes est que Tesla compte « 10 millions d'abonnements actifs au Full Self-Driving ». À première vue, cela serait encourageant pour les acheteurs de Full Self-Driving, car une partie de la rémunération d'Elon Musk dépendrait de la réalisation des promesses faites concernant le Full Self-Driving. Mais Tesla a modifié la définition du Full Self-Driving dans le plan de rémunération en lui donnant une définition extrêmement vague.

    Tesla précise désormais : « FSD désigne un système de conduite avancé, quel que soit le nom commercial utilisé, capable d'effectuer des tâches de transport offrant une fonctionnalité autonome ou similaire dans des conditions de conduite spécifiques ». Cette définition réduit en fait le Full Self Driving à tout système de conduite avancé pouvant inclure des fonctions d'aide à la conduite supervisées. Ce qui est loin de la promesse initiale d'Elon Musk.

    Cette redéfinition signifie que Tesla ne promet plus aux propriétaires qu'ils pourront s'endormir et se réveiller à destination sans surveillance, une promesse qu'Elon Musk a utilisée pendant des années pour stimuler les ventes. Cela met en évidence une différence flagrante entre la manière dont Tesla commercialise le logiciel auprès des clients et des investisseurs et le langage prudent utilisé dans les documents juridiques et les documents relatifs à la rémunération.

    La nouvelle définition vague permet à Tesla de baisser les prix du Full Self-Driving et d'inciter les clients à acheter le FSD sans tenir ses promesses initiales en matière d'autonomie, tandis que Musk pourrait encore gagner des centaines de milliards en rémunération sous forme d'actions.

    Le prix du Full Self-Driving de Tesla a déjà considérablement baissé, ce qui coïncide avec une baisse des ventes de Tesla. La tendance de l'entreprise à revoir ses attentes à la baisse et à ajuster ses définitions rappelle des cas passés où Tesla a techniquement tenu ses promesses de manière limitée, loin des attentes du public.

    Conduite autonome : l'échec de l'Autopilot et du Full Self-Driving

    La conduite autonome est la promesse centrale autour de laquelle Elon Musk a bâti son entreprise. Il est convaincu qu'il s'agit de la prochaine frontière de l'industrie automobile. Tesla n'a jamais livré de véhicule véritablement autonome, mais le milliardaire continue d'affirmer que ses voitures rouleront bientôt sans aucune intervention humaine. En attendant, l'Autopilot, son logiciel d'aide à la conduite, n'est pas vraiment aussi avancé qu'il le prétend.

    Les documents contiennent plus de 2 400 plaintes de clients concernant des accélérations involontaires et plus de 1 500 problèmes de freinage, dont 139 cas impliquant un freinage d'urgence sans cause et 383 freinages fantômes déclenchés par de fausses alertes de collision. Plus de 1 000 accidents sont documentés.

    Une feuille de calcul distincte sur les incidents liés à l'aide à la conduite, pour lesquels les clients ont soulevé des préoccupations en matière de sécurité, répertorie plus de 3 000 entrées. La plus ancienne date de 2015, la plus récente de mars 2022. Sur cette période, Tesla a livré environ 2,6 millions de véhicules équipés du logiciel Autopilot. La plupart des incidents se sont produits aux États-Unis, mais des plaintes ont été enregistrées en Europe et en Asie.

    Les clients ont décrit leurs voitures comme accélérant soudainement ou freinant brusquement. Certains s'en sont sortis avec une frayeur, d'autres ont fini dans des fossés, ont percuté des murs ou sont entrés en collision avec des véhicules venant en sens inverse. « Après avoir déposé mon fils sur le parking de son école, alors que je m'apprêtais à prendre la sortie à droite, la voiture a soudainement fait un bond en avant », peut-on lire dans une plainte.

    Une deuxième personne a écrit : « mon Autopilot a échoué (mal fonctionné) ce matin (la voiture n'a pas freiné) et j'ai failli percuter quelqu'un à 105 km/h. » Une autre a rapporté : « aujourd'hui, alors que ma femme conduisait avec notre bébé dans la voiture, celle-ci a soudainement accéléré sans raison ».

    Ces dernières années, la NHTSA a recensé plusieurs cas dans lesquels des Tesla ont percuté des véhicules d'urgence à l'arrêt. Dans chacun de ces cas, l'Autopilot s'est désactivé « moins d'une seconde avant l'impact », ce qui laisse beaucoup trop peu de temps au conducteur pour réagir. Les critiques ont averti que ce comportement pourrait permettre à Tesla de faire valoir devant les tribunaux que l'Autopilot n'était pas activé au moment de l'impact.

    Le YouTuber Mark Rober, ancien ingénieur à la NASA, a reproduit ce comportement dans une expérience réalisée le 15 mars 2025. Il a simulé une série de situations dangereuses dans lesquelles la Tesla Model Y a obtenu des résultats nettement inférieurs à ceux d'un véhicule concurrent. La Tesla a roulé à plusieurs reprises sur un mannequin d'essai sans freiner. La vidéo est devenue virale, accumulant plus de 14 millions de vues en quelques jours.

    L'expérience du YouTuber Mark Rober renforce l'argument selon lequel les systèmes de conduite autonome basés sur le LiDAR sont plus fiables que les systèmes de conduite autonome utilisant uniquement des caméras, comme les systèmes Autopilot et Full Self-Driving de Tesla. La seconde voiture testée par Mark Rober est équipée d'un système de conduite autonome utilisant une combinaison de LiDAR, de caméras et d'autres types de capteurs.

    Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. Selon les critiques, la vision par ordinateur est limitée, ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », et a déclaré qu'il s'agit d'une « aventure insensée ». Cependant, de nombreux experts de l'industrie automobile ne partagent pas l'avis du PDG de Tesla.

    Le logiciel FSD de Tesla est très impopulaire et rebute les clients

    Les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une récente enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.

    Nom : okpl.png
Affichages : 938
Taille : 72,8 Ko

    Tesla a récemment supprimé le terme « Full Self-Driving » du nom de son logiciel de conduite autonome en Chine, le FSD ayant déjà été taxé de publicité mensongère pour avoir laissé croire que les véhicules Tesla étaient entièrement autonomes.

    La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a pour sa part déclaré que ses agents avaient enquêté sur la filiale française de Tesla entre 2023 et 2024 après que des plaintes aient été déposées sur une plateforme dédiée aux consommateurs.

    L'enquête a révélé « des pratiques commerciales trompeuses concernant les capacités de conduite entièrement autonome des véhicules Tesla, la disponibilité de certaines options et les offres de reprise de véhicules », selon la DGCCRF.

    L'agence a également cité des retards dans le remboursement des commandes annulées, un manque d'informations sur le lieu de livraison et des contrats de vente incomplets, entre autres infractions.

    Tesla a obtenu un délai de quatre mois pour se mettre en conformité avec la réglementation. L'entreprise s'expose à une amende journalière de 50 000 euros si elle ne met pas fin à ses pratiques commerciales trompeuses concernant l'option de conduite entièrement autonome de certains modèles Tesla.

    L'enquête de la DGCCRF fait écho à des préoccupations plus générales concernant la technologie de conduite autonome de Tesla. Lors d'un test de 1 600 kilomètres mené par la société indépendante AMCI, le système Full Self-Driving de Tesla a commis des erreurs occasionnelles dangereuses et a nécessité l'intervention du conducteur à plus de 75 reprises alors que le système était actif.

    Ces préoccupations sont d'autant plus importantes que les statistiques de sécurité sont inquiétantes. Selon une récente étude, malgré des fonctionnalités avancées telles que l'Autopilot et le Full Self-Driving, censées réduire l'erreur humaine, Tesla aurait le taux d'accidents mortels le plus élevé parmi les marques automobiles. Ce constat soulève de nombreuses questions sur la sécurité des voitures électriques, l’efficacité des systèmes d’assistance à la conduite et le comportement des conducteurs.

    Conclusion

    La manière dont Tesla aborde l'autonomie avec ses clients et ses investisseurs diffère considérablement de la façon dont il présente la fonction dans ses documents judiciaires et ses documents juridiquement contraignants. Cela devrait inquiéter toute personne intéressée par cette question. Avec cette description très vague dans le nouveau programme de rémunération du PDG, Tesla pourrait littéralement baisser le prix du logiciel et même supprimer l'Autopilot de base afin d'inciter les clients à opter pour le FSD et permettre à Elon Musk d'empocher des centaines de milliards de dollars en actions.

    Il existe un précédent concernant la baisse des prix du FSD par Tesla. Au départ, Elon Musk avait déclaré que Tesla augmenterait progressivement le prix du pack FSD à mesure que les fonctionnalités s'amélioreraient et se rapprocheraient de l'autonomie sans supervision. Cela a été vrai pendant un certain temps, mais Tesla a ensuite commencé à réduire considérablement les prix du FSD, qui ont désormais baissé de 7 000 dollars par rapport à leur niveau record de 2023.

    La tendance est assez évidente et a coïncidé avec le début du déclin des ventes de Tesla. Le FSD est désormais un simple système ADAS sans aucune promesse de conduite autonome sans supervision. Il s'agit peut-être, en toute honnêteté, de l'un des plus grands cas de publicité mensongère ou de publicité trompeuse jamais vus. Elon Musk a évoqué la mise à niveau des ordinateurs de ces véhicules afin d'apaiser les propriétaires, mais aucun plan concret n'a été mis en place pour la mettre en œuvre.

    Source : Tesla

    Et vous ?

    Quel est votre avis sur le sujet ?
    Tesla renonce à sa promesse initiale d'offrir une conduite autonome sans surveillance. Qu'en pensez-vous ?
    Pensez-vous que Tesla devrait rembourser ou compenser les clients ayant acheté le logiciel en s’attendant à une autonomie complète ?
    Est-il éthique de vendre un produit en prétendant qu'il est autonome alors qu’il nécessite toujours l’attention du conducteur ?
    Pensez-vous que le nouveau terme « Full Self-Driving (Supervised) » reflète honnêtement les capacités réelles des véhicules Tesla ? Pourquoi ?
    Comment cette situation affecte-t-elle la crédibilité de Tesla et de ses concurrents dans le domaine des véhicules autonomes ?
    Que pensez-vous des promesses de conduite autonome dans l’industrie automobile ? Sont-elles réalistes à court terme ?

    Voir aussi

    17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent

    Le logiciel FSD de Tesla est très impopulaire et rebute davantage de consommateurs qu'il n'en attire, d'après une étude qui questionne sur la valeur réelle de la filière du véhicule automobile

    Si l'Autopilot ne vous tue pas, ça sera les vitres : une milliardaire américaine se noie dans une Tesla après que les sauveteurs se sont battus avec les vitres renforcées de la voiture

  8. #8
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    1 063
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 1 063
    Par défaut
    Parfois on rêverait que le système soit piloté par des techniciens qui œuvrent à l'intérêt public. ça donnerait :

    direction de techniciens : Les ingé, bon vous êtes d'accord que la conduite autonome c'est inaccessible ? Vous pouvez pas nous faire à la place un système de réduction des risques pour les conducteurs qui font un malaise ?

    ingé : Pas de conduite autonome avant la prochaine révolution scientifique en IA. OK, on peut vous faire un détecteur de perte de connaissance avec un freinage progressif et un détecteur de collisions. On vous fait aussi un détecteur de conducteur ivre mort ?

    ---

    Actuellement : direction de commerciaux et financier : faites nous une conduite autonome !

    ingé : actuellement on sait pas faire

    direction : ok, virez les incapables, marketing vendez le concept ; financiers, faites de levées de fonds avec le marketing et embauchez des ingé qui trouvent.

  9. #9
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 645
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 645
    Par défaut

    Une référence pour moi.
    J'ai vécu ça comme expert et comme chef de projet

  10. #10
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 336
    Par défaut Les parts de marché de Tesla connaissent des niveaux de baisse jamais enregistrés depuis 2017
    Les parts de marché de Tesla connaissent des niveaux de baisse jamais enregistrés depuis 2017
    Dans un contexte de questionnements sur la possibilité ou non d’atteindre la pleine autonomie ou niveau 5

    Le dernier rapport en date relative à la baisse de parts de marché de Tesla est celui de Cox Automotive selon lequel la part de marché de Tesla est à un plus bas jamais enregistré depuis 2017. Grosso modo, les rapports se multiplient et font état de ce que les ventes de Tesla ne cessent de baisser à l’échelle mondiale. Entre bogues logiciels, Autopilot sous enquête et multiples rejets, récent abandon par Tesla de sa promesse de véhicule autonome sans surveillance humaine, la filière de la voiture autonome est plus que jamais sujette à controverse. En toile de fond, c’est la question de la possibilité de l’atteinte ou non du niveau d’autonomie 5 par des logiciels comme le FSD qui est sur la table.

    Elle l’est d’autant plus que Tesla a renoncé à sa promesse d’offrir une conduite autonome sans surveillance humaine

    En effet, Tesla précise désormais : « FSD désigne un système de conduite avancé, quel que soit le nom commercial utilisé, capable d'effectuer des tâches de transport offrant une fonctionnalité autonome ou similaire dans des conditions de conduite spécifiques ». Cette définition réduit en fait le Full Self Driving à tout système de conduite avancé pouvant inclure des fonctions d'aide à la conduite supervisées. Ce qui est loin de la promesse initiale d'Elon Musk.

    Cette redéfinition signifie que Tesla ne promet plus aux propriétaires qu'ils pourront s'endormir et se réveiller à destination sans surveillance, une promesse qu'Elon Musk a utilisée pendant des années pour stimuler les ventes. Cela met en évidence une différence flagrante entre la manière dont Tesla commercialise le logiciel auprès des clients et des investisseurs et le langage prudent utilisé dans les documents juridiques et les documents relatifs à la rémunération.

    La nouvelle définition vague permet à Tesla de baisser les prix du Full Self-Driving et d'inciter les clients à acheter le FSD sans tenir ses promesses initiales en matière d'autonomie, tandis que Musk pourrait encore gagner des centaines de milliards en rémunération sous forme d'actions.

    Le prix du Full Self-Driving de Tesla a déjà considérablement baissé, ce qui coïncide avec une baisse des ventes de Tesla. La tendance de l'entreprise à revoir ses attentes à la baisse et à ajuster ses définitions rappelle des cas passés où Tesla a techniquement tenu ses promesses de manière limitée, loin des attentes du public.

    Nom : 0.png
Affichages : 3318
Taille : 184,7 Ko

    Les comportements erratiques des véhicules autonomes et les accidents qui les impliquent renforcent le doute sur la question de savoir si les ordinateurs peuvent provoquer la mise au rebut totale de l’humain en matière de conduite automobile

    En juin 2023, une voiture autonome de Waymo a heurté un chien sur Toland Street à Toland Place, à San Francisco, en Californie. Le Waymo AV se dirigeait vers le sud-ouest sur Toland Street lorsqu’un petit chien a traversé la rue devant lui. Le Waymo AV a alors heurté le chien, qui n’a pas survécu.

    En février 2023, un véhicule autonome Cruise a roulé vers des tuyaux d'incendie au sol dans une zone de lutte contre les incendies, ont indiqué les responsables des transports de la ville de San Francisco dans une lettre adressée aux régulateurs. Les responsables des transports ont demandé aux sociétés de véhicules autonomes comme Cruise et Waymo de freiner leurs efforts d'expansion. « Les pompiers présents sur les lieux ont fait des efforts pour empêcher le Cruise AV de rouler sur leurs tuyaux et n'y sont parvenus qu'en brisant une vitre avant du Cruise AV », indique la lettre.

    En 2019, Waymo a lancé la diffusion de musique en continu sans publicité pour les passagers via Google Play Music, la réponse de sa société mère à Spotify et Apple Music. L’objectif étant de persuader les passagers que le service de transports de la compagnie, baptisé Waymo One, est moins stressant que de conduire leur propre voiture ou de rouler avec ses rivaux. Les conducteurs bavards ou peu précis, ainsi que les véhicules de taille et de propreté variables, sont les plus prisés des amateurs d’applications de conduite exaltante.

    Une semaine plus tard après que la California Public Utilities Commission a voté pour autoriser Waymo et Cruise à commencer à faire payer les clients pour les trajets en taxi sans chauffeur à travers la ville, les véhicules Cruise ont été impliqués dans deux accidents graves à quelques heures d’intervalle. Le lendemain, le département californien des véhicules motorisés a exigé que Cruise réduise de moitié sa flotte de taxis sans chauffeur pendant que ces accidents faisaient l’objet d’une enquête.

    Si pour certains les voitures autonomes sont plus sûres que les conducteurs humains, le journaliste Cade Metz affirme qu'elles sont imparfaites. « Il est devenu de plus en plus clair pour les personnes qui conduisent les voitures, et pour les autres citoyens de la ville, qu'elles sont imparfaites, qu'elles font des erreurs, qu'elles peuvent encombrer le trafic, qu'elles peuvent causer des accidents. »

    Bien sûr, les voitures autonomes sont imparfaites, comme toutes les technologies. La question importante est de savoir si les voitures autonomes sont plus sûres que les voitures conduites par des humains. Et c'est là que le journaliste Metz exprime son ignorance. « Nous ne savons pas encore si elles sont plus sûres qu'un conducteur humain », a-t-il déclaré.

    Certains observateurs sont d’avis que les ordinateurs n’atteindront jamais le niveau d’autonomie permettant de se passer de l’humain de façon totale

    L’autonomie des véhicules se définit selon des paliers :

    • Niveau 0 : c’est l’automobiliste qui reste maître à bord ;
    • Niveau 1 : l’ordinateur peut intervenir pour gérer la vitesse ou la direction (régulateur de vitesse, alerte distance de sécurité) mais le conducteur garde le contrôle du véhicule ;
    • Niveau 2 : la voiture peut « se conduire » temporairement, en se garant toute seule par exemple (park assist). Le conducteur reste responsable de la conduite ;
    • Niveau 3 : le conducteur peut déléguer la conduite à l’ordinateur dans certaines situations comme les bouchons. La fonction embouteillage du XC 90 de Volvo illustre parfaitement ce niveau. L’ordinateur peut aussi indiquer au conducteur quand il doit reprendre le véhicule en main ;
    • Niveau 4 : plus besoin du conducteur dans certains cas prédéfinis ; le véhicule dépose son conducteur, se gare seul et revient chercher son propriétaire ;
    • Niveau 5 : la voiture est totalement autonome et contrôle toutes les fonctions du véhicule. Le conducteur peut être présent ou non.


    Mercedez Benz est devenue la première entreprise automobile à obtenir un certificat de conformité pour véhicules autonomes de niveau 3. Les rapports ont fait état de ce qu’un véhicule Waymo était équipé d’un Advanced Driving Systems de niveau 4 lorsqu’il a écrasé un chien à San Francisco à mi-parcours de l’année 2023.

    Pour ce qui est du niveau 5, Kyle Vogt, PDG de Cruise, indique que « même dans des décennies vous n’obtiendrez pas de véhicules autonomes à 100 %. » Ce dernier est d’avis que l’assistance à distance va rester sur le long terme. Luc Julia, l’un des inventeurs de l’assistant vocal Siri d’Apple, actuel vice-président innovation de Samsung Monde, et directeur du laboratoire de recherche en IA de Samsung déclare pour sa part que « la voiture autonome n’existera jamais La charge cognitive nécessaire pour la conduite est trop importante pour la confier à une machine. Cela fonctionnera à 98 %, mais il restera toujours 2 % que seul l’humain pourra accomplir. »

    Sources : Reuters, ACEA

    Et vous ?

    Que pensez-vous des avancées en matière d’intelligence artificielle appliquée à l’automobile ?

    Le palier de véhicules autonomes à 100 % pourrait-il être atteint ?

    Voir aussi :

    Les conducteurs de Tesla peuvent jouer à des jeux vidéo dans des voitures en mouvement, cette fonctionnalité soulève de nouvelles questions de sécurité liées à la distraction au volant

    Le gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen

    Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »

    Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    348
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 348
    Par défaut
    Les écarts d'équipement de série et de finition entre les Tesla et les marques chinoises ne justifient pas l'écart de prix.

  12. #12
    Membre Expert
    Homme Profil pro
    Ingénieur d'Etude Mainframe/AS400
    Inscrit en
    Novembre 2012
    Messages
    1 789
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur d'Etude Mainframe/AS400
    Secteur : Finance

    Informations forums :
    Inscription : Novembre 2012
    Messages : 1 789
    Par défaut
    Ils étaient en avance ils ne le sont plus. Et ils ne sortent rien de vraiment nouveau depuis un bail, sans parler de toute la controverse liée à Elon Musk.

Discussions similaires

  1. [UBUNTU] Utilisation du logiciel Draw
    Par rayga dans le forum Ubuntu
    Réponses: 2
    Dernier message: 05/05/2007, 07h30
  2. Refus d'utiliser un logiciel piraté
    Par Le Pharaon dans le forum Droit du travail
    Réponses: 7
    Dernier message: 26/07/2006, 11h03
  3. [css] utilisation du logiciel topstyle
    Par TERRIBLE dans le forum Mise en page CSS
    Réponses: 3
    Dernier message: 28/12/2005, 00h55
  4. [PDA] Utiliser un logiciel prévu pour un pc sur un pda
    Par whilecoyote dans le forum Mobiles
    Réponses: 2
    Dernier message: 13/12/2005, 17h11
  5. [FLASH] Utiliser un logiciel dans flash
    Par Ricardeau dans le forum Flash
    Réponses: 2
    Dernier message: 24/06/2005, 15h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo