IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 455
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 455
    Par défaut Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test
    Tesla retire le terme « FSD » (Full Self-Driving) du nom de son logiciel de conduite autonome en Chine,
    FSD a déjà été taxée de publicité mensongère qui laisse croire que les véhicules Tesla sont entièrement autonomes

    Tesla a récemment annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Ce changement, bien que mineur en apparence, soulève des questions sur la manière dont la société d'Elon Musk navigue dans un environnement réglementaire de plus en plus strict, notamment dans un marché aussi complexe et crucial que celui de la Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.

    Le contexte de l'innovation automobile et des défis réglementaires en Chine

    Tesla a présenté son logiciel de conduite autonome, le Full Self-Driving (FSD), comme une révolution dans le domaine des voitures « intelligentes ». Cette technologie promettait d’offrir une conduite totalement autonome, avec des capacités allant de la gestion de la vitesse à la navigation dans les rues sans intervention humaine. Cependant, la réalité de la conduite autonome n’a pas répondu à toutes les attentes. Les régulations mondiales sur la sécurité et les tests en conditions réelles ont exposé des limites à la technologie, incitant de nombreux pays à adopter une approche plus prudente vis-à-vis de son déploiement.

    En Chine, Tesla s'est vu confronté à des régulations strictes concernant la sécurité des véhicules autonomes.

    Tesla a modifié le nom de son logiciel de conduite intelligente dans le pays, en supprimant la mention FSD du pack le plus cher. Le changement a été effectué le 25 mars et le nom du logiciel vendu au prix de 64 000 yuans RMB (8 810 €) est passé de « FSD Intelligent Assisted Driving » (FSD 智能辅助驾驶) à « Intelligent Assisted Driving » (智能辅助驾驶). Le nom de la version de base gratuite du logiciel d'aide à la conduite a été modifié, passant de « Basic Version Assisted Driving » (基础版辅助驾驶) à « Basic Assisted Driving » (基础辅助驾驶).

    La description générale de ces fonctions a été modifiée, passant de « Autopilot Automated Assisted Driving » (Autopilot自动辅助驾驶) à « Assisted Driving » (辅助驾驶).

    Hormis le changement de nom, les fonctions de ces trois packs restent inchangées et correspondent respectivement à FSD (Full Self-Driving), Enhanced Autopilot (EAP) et Basic Autopilot (BAP).

    Tesla a initialement appelé FSD « Full Self-driving Capability » (完全自动驾驶能力) en Chine, ce qui signifie littéralement avoir une capacité de conduite entièrement autonome, bien que cela ne soit pas vrai.

    Nom : ecran.png
Affichages : 3334
Taille : 116,7 Ko
    Une capture d'écran du site web de Tesla Chine montre le dernier nom donné par Tesla à son logiciel de conduite intelligente.

    Le retrait du terme "FSD" de son logiciel dans ce pays pourrait être perçu comme une tentative de se conformer à des exigences locales et d’apaiser les préoccupations des autorités, qui sont particulièrement vigilantes vis-à-vis des nouvelles technologies, surtout celles liées à la sécurité publique et à la confidentialité des données.

    Le 25 février, Tesla a commencé à déployer en Chine des fonctions de conduite intelligente avancées, similaires à la FSD aux États-Unis, et a évité de mentionner la FSD dans l'introduction à l'époque. Cela a été perçu comme l'introduction officielle de la FSD en Chine. Le nom de la fonction a ensuite été modifié, passant de « Full Self-driving Capability » à « FSD Intelligent Assisted Driving ».

    Le 17 mars, Tesla a annoncé qu'elle permettrait aux véhicules éligibles d'expérimenter gratuitement les fonctions FSD jusqu'au 16 avril. Toutefois, le fabricant américain de véhicules électriques a ensuite suspendu l'essai gratuit, expliquant sur Weibo que c'était parce qu'il devait encore terminer l'approbation du logiciel de conduite assistée intelligente. « Toutes les parties font activement avancer le processus concerné et, une fois qu'il sera prêt, il sera diffusé dès que possible », a déclaré le service d'assistance à la clientèle de Tesla sur Weibo.

    Ces dernières années, Tesla a permis aux clients chinois d'acheter le logiciel FSD pour 64 000 yuans RMB. Toutefois, la FSD n'étant pas disponible en Chine, même les vendeurs de Tesla ne recommandaient pas aux clients d'acheter le logiciel. En revanche, la plupart des constructeurs automobiles locaux, y compris Xpeng et BYD, fournissent leurs fonctions ADAS (système avancé d'aide à la conduite) gratuitement aux propriétaires de voitures.

    La Californie adopte une loi qui interdit à Tesla l'appellation Full Self-Driving

    Pour la Californie, c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

    « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

    Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée

    Tesla a entamé l’alignement avec le commentaire du texte de loi californien ci-dessus, modifiant la terminologie marketing autour de son logiciel de conduite autonome. Auparavant, les clients avaient la possibilité d'acheter le « Full Self-Driving Capability » (capacité de conduite autonome complète), avec un texte additionnel indiquant que le FSD sera « continuellement améliorée ». Ce texte spécifique n'est plus proposé, et à la place, les clients ne peuvent désormais acheter que le « FSD (supervisé) », qui ne mentionne plus l'amélioration continue. Le changement apparaît comme un aveu de publicité mensongère.

    Nom : fsd.png
Affichages : 526
Taille : 60,6 Ko

    De multiples incidents illustrent le fait que l’utilisation de la terminologie "Full Self-Driving" par Tesla constitue une exagération des capacités de ses véhicules

    Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.


    Une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier

    C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

    « Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


    L'accident s'est produit dans la matinée du 8 mai. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

    Tesla procède même à des falsifications de l’autonomie de ses véhicules selon certains rapports

    Selon une enquête de Reuters, le constructeur aurait truqué le logiciel qui affiche la distance restante avant de devoir recharger la batterie. Au lieu de montrer la valeur réelle, le logiciel aurait donné une estimation « optimiste » de l’autonomie, sur ordre du PDG Elon Musk il y a environ 10 ans.

    Cette pratique aurait entraîné un afflux de plaintes et de demandes de réparation de la part des clients qui s’attendaient à une plus grande autonomie, surtout par temps froid. Certains propriétaires ont rapporté des autonomies inférieures à la moitié de celles annoncées, notamment pour le Model 3 qui promet 374 miles (602 km) sur une charge complète. Un conducteur a même déclaré que sa batterie se vidait si rapidement par temps froid qu’il devait s’arrêter pratiquement toutes les heures pour recharger.

    La distance que les véhicules électriques peuvent parcourir avant de devoir être rechargés est l'un des principaux inconvénients auxquels les voitures sont confrontées par rapport aux véhicules à essence. L'ordre de gonfler l'autonomie affichée sur les voitures a été donné par le PDG de Tesla, Elon Musk, il y a environ 10 ans, selon Reuters. L'agence de presse a déclaré qu'elle ne pouvait pas déterminer si les algorithmes étaient toujours utilisés.

    Pour faire face à ce problème, Tesla aurait créé une équipe secrète à Las Vegas, baptisée « Diversion Team », chargée d’annuler les rendez-vous liés à l’autonomie. Selon Reuters, les employés de cette équipe célébraient chaque annulation en jouant du xylophone acheté par un superviseur. Certains collègues se seraient même levés sur leurs bureaux pour applaudir chaque annulation. Les managers de Tesla auraient dit aux employés qu’ils faisaient économiser 1 000 dollars à l’entreprise pour chaque annulation.

    Full Self-Driving de Tesla obtient la pire note globale des tests de sécurité des véhicules

    L’IIHS (l’Insurance Institute for Highway Safety), un groupe indépendant non lucratif dédié à la réduction des décès, des blessures et des dommages matériels résultant d’accidents de la route, a testé 14 systèmes de conduite automatisée partielle. Ces systèmes, qui comprennent des fonctions telles que le régulateur de vitesse adaptatif, la direction coopérative, l’assistance au maintien de la trajectoire, les changements de voie automatisés et les systèmes qui permettent parfois au conducteur de lâcher le volant, sont censés rendre nos expériences de conduite plus simples et plus sûres.

    Cependant, aucun des systèmes testés n’a reçu la note “bon”. Seul un système a été jugé “acceptable”, deux ont été classés comme “marginaux” et les autres ont été qualifiés de “pauvres”. Parmi les systèmes évalués, celui de Tesla, le Full Self-Driving (Beta) Version 2023.7.10, a reçu la pire évaluation globale, avec une note “pauvre” dans six catégories et “acceptable” dans les deux autres.

    Source : site de Tesla en Chine

    Et vous ?

    Tesla pourrait-elle étendre cette décision à d'autres marchés en dehors de la Chine ? Quels impacts cette modification pourrait-elle avoir sur l'image de marque de Tesla dans d'autres pays, notamment ceux où la réglementation est moins stricte ?

    La suppression du terme "FSD" signifie-t-elle que Tesla a abandonné ses ambitions de conduite autonome totale ? Quelle est la vision future de Tesla concernant la conduite entièrement autonome, et comment cette décision s'inscrit-elle dans cette vision à long terme ?

    Quelles répercussions cette décision pourrait-elle avoir sur la concurrence entre Tesla et d'autres entreprises de technologie automobile, comme Waymo ou Cruise ? Tesla perd-elle un avantage concurrentiel dans la course à la conduite autonome, ou cette décision lui permet-elle de se concentrer sur des solutions plus réalisables à court terme ?

    Voir aussi :

    Donald Trump menace de déporter les « terroristes » qui protestent contre Tesla vers le Salvador et de leur faire vivre l'enfer pendant 20 ans tout en continuant à prendre la défense d'Elon Musk

    Donald Trump soutient son coprésident Elon Musk et déclare que les attaques contre les concessionnaires Tesla seront traitées comme du « terrorisme », mais son soutien pourrait nuire davantage à Tesla

    Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 303
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 303
    Par défaut Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test
    Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test, 90 % des interrogées estiment qu'une voiture autonome qui renverse un enfant devrait être interdite

    Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test dans un bus scolaire. Lors du test, une Model Y équipée du logiciel FSD passait devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. La Tesla n'a pas manqué de détecter le mannequin, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Selon le Dawn project, 90 % des personnes interrogées estiment qu'une voiture autonome qui renverse un enfant traversant la route devrait être interdite.

    En mars dernier, Tesla a annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.

    Récemment, un rapport a révélé que Tesla s'apprête à mettre en circulation quelques robotaxis à Austin. Il ne s'agira pas des robotaxis CyberCab que Tesla a "dévoilés" à la fin de l'année 2024, mais de Model Y classiques équipés d'une version du logiciel dit "entièrement autonome" de Tesla. Pourtant, selon les résultats du dernier test réalisé par le Dawn Project, une organisation dédiée à la sécurité fondée par Dan O'Dowd, diplômé du Caltech et ingénieur logiciel, la réponse est clairement "pas terrible". Du moins, si l'on se soucie du fait que les voitures s'arrêtent pour laisser descendre les enfants des bus scolaires.

    Lors du test, O'Dowd a conduit un Model Y équipé du logiciel FSD 13.2.9 devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. Ils ont ensuite placé un mannequin de la taille d'un enfant sur la trajectoire de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a roulé sur l'enfant comme s'il n'était pas là.

    Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue. On pourrait penser qu'une personne aussi éprise d'enfants qu'Elon Musk voudrait au moins que ses produits évitent de renverser des enfants, n'est-ce pas ?


    Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.

    Elon Musk how many kids does FSD need to run over before you fix this?

    I warned about this danger at the 2023 Super Bowl!

    [image or embed]

    — Dan O'Dowd (@realdanodowd.bsky.social) 28 mai 2025 à 17:17
    Le Dawn Project a documenté les problèmes du FSD pour s'arrêter devant les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité pendant le Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, ce dont il avait averti s'est apparemment produit dans la vie réelle.

    Le conducteur d'une Tesla Model Y a percuté Tillman Mitchell, un lycéen de la Haliwa-Saponi Tribal School à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que le mode Autopilot ou Full Self Driving était activé au moment de l'accident. Mitchell a subi des « blessures mortelles » et a été transporté par hélicoptère vers un hôpital voisin pour y être soigné, où il a heureusement survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement le genre de blessures dont on se remet rapidement. Cet incident est loin d'être le seul cas où une Tesla n'a pas réussi à s'arrêter.

    Si le logiciel dit « Full Self-Driving » de Tesla ne fonctionnait que sur les autoroutes, comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules à l'arrêt, tels que les bus scolaires, resterait un problème. Mais avec le projet de déployer dans quelques semaines une flotte de Model Y comme robotaxis dans les rues des villes, cela devient encore plus préoccupant.

    Pour rappel, un autre rapport a révélé que les véhicules Tesla avec le logiciel Full Self-Driving actif percutent à mort les motocyclistes par l'arrière, plus que toute autre voiture. Selon le rapport, ce n'est pas que les voitures autonomes en général sont dangereuses pour les motos : ce problème est propre à Tesla. Aucun autre constructeur automobile ou fournisseur de technologie similaire n'a signalé un seul accident mortel de moto au cours de la même période. Le rapport ajoute plus de doute à l'autonomie.


    Voici le rapport du Dawn Project :

    Le Dawn Project a prouvé de manière concluante que le logiciel de conduite autonome de Tesla :

    • Renverserait un enfant traversant la route
    • Dépasserait un bus scolaire à l'arrêt
    • Ignorerait les panneaux « Sens interdit » et « Route fermée »
    • Heurterait un bébé dans une poussette

    90 % des personnes interrogées s'accordent à dire qu'une voiture autonome qui renverserait un enfant traversant la route devrait être immédiatement interdite de circulation sur les routes publiques.

    Le logiciel de conduite autonome de Tesla doit donc être immédiatement retiré de la circulation jusqu'à ce que tous ces problèmes soient résolus.

    Mais les régulateurs refusent d'interdire le logiciel, les politiciens n'agissent pas parce que le public ne l'a pas demandé, et Tesla continue de commercialiser ce produit défectueux et dangereux, même si Elon Musk est au courant de ces défauts.

    Nous avons publié cinq annonces dans le New York Times, fait paraître des centaines d'articles et même diffusé une publicité pendant le Super Bowl, mais Tesla refuse toujours de corriger les défauts ou de retirer le logiciel de la circulation.

    Elon Musk et Tesla n'ont pas agi comme n'importe quelle autre entreprise respectable l'aurait fait face à des preuves concrètes de graves défauts de sécurité, à savoir rappeler le produit jusqu'à ce que les défauts de sécurité soient corrigés.

    Les raisons suivantes n'ont pas suffi à convaincre Elon Musk de faire ce qu'il fallait :

    • La moralité
    • L'empathie pour les victimes
    • Les reproches des régulateurs
    • La publicité négative

    C'est maintenant à vous d'utiliser votre arme la plus puissante, couper la source de revenus d'Elon Musk : les ventes de voitures neuves Tesla. Les boycotts ont déjà été une mesure efficace contre Elon Musk sur Twitter (X). Les ventes de voitures Tesla sont les fonds qui permettent à son logiciel de conduite autonome défectueux de rester sur les routes et qui soutiennent ses autres projets dépravés.

    Notre mission reste la même : retirer le logiciel de conduite autonome défectueux de Tesla de la circulation.
    Source : Dawn Project

    Et vous ?

    Pensez-vous que ce test est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    4 millions de voitures défectueuses : Tesla fait face à une facture de 10 milliards de dollars. Tesla doit soit mettre à niveau soit indemniser les propriétaires de véhicules plus anciens

    Tesla annonce des résultats décevants avec une baisse de 71 % du bénéfice net au T1 2025. Musk met en garde contre l'impact des droits de douane et veut réduire le temps consacré au DOGE au profit de Tesla

    Tesla a le taux d'accidents mortels le plus élevé parmi les marques automobiles, selon une étude, malgré des fonctionnalités telles qu'Autopilot et Full-Self Driving, censées réduire l'erreur humaine
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    132
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 132
    Par défaut
    Comme si c'était moins grave de renverser un adulte ?!
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?

  4. #4
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 494
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 494
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    Oui, pendant un certains temps en tout cas.
    Pourquoi un enfant c'est plus grave qu'un adulte?
    Parce qu'un adulte a grandi dans cet environnement , il le connait et sait le gérer, mieux qu'un enfant.
    Ce n'est pas un hasard si nous sommes plus exigeants avec nos enfants qu'avec nous même. Parce que la règle qu'on leur impose est devenue naturelle pour nous et nous la contournons régulièrement parce que comprenons mieux l'environnement routier dans lequel nous évoluons.

  5. #5
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 943
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 943
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    La grosse différence se trouve dans la phrase ci-dessous, car un humain aurait tenté de l'éviter :
    Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue.

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 637
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 637
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    Comme si c'était moins grave de renverser un adulte ?!
    Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
    Je pense que tu n'as pas compris la news. Le FSD détecte les adultes et s'arrête, encore heureux. Sur un enfant qui traverse, le FSD décide que ça ne vaux pas la peine de s'arrêter et il préfère écraser l'enfant que de s'arrêter. Bizarrement le FSD détecte bien l'enfant, mais il ne veut pas s'arrêter, comme si c'était un lapin, ça ne vaux pas la peine de ralentir une Tesla pour si peu...
    On pourrais donc se laisser à penser que ce FSD est très dangereux.
    L'autopilot de Waymo ne fait pas ça, c'est le Tesla FSD qui déconne et qui est très dangereux.

Discussions similaires

  1. [UBUNTU] Utilisation du logiciel Draw
    Par rayga dans le forum Ubuntu
    Réponses: 2
    Dernier message: 05/05/2007, 06h30
  2. Refus d'utiliser un logiciel piraté
    Par Le Pharaon dans le forum Droit du travail
    Réponses: 7
    Dernier message: 26/07/2006, 10h03
  3. [css] utilisation du logiciel topstyle
    Par TERRIBLE dans le forum Mise en page CSS
    Réponses: 3
    Dernier message: 27/12/2005, 23h55
  4. [PDA] Utiliser un logiciel prévu pour un pc sur un pda
    Par whilecoyote dans le forum Mobiles
    Réponses: 2
    Dernier message: 13/12/2005, 16h11
  5. [FLASH] Utiliser un logiciel dans flash
    Par Ricardeau dans le forum Flash
    Réponses: 2
    Dernier message: 24/06/2005, 14h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo