IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Full Self-Driving de Tesla obtient la pire note globale en matière de sécurité

  1. #81
    Expert éminent sénior
    Homme Profil pro
    Ingénieur d'Etude Mainframe/AS400
    Inscrit en
    Novembre 2012
    Messages
    1 763
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur d'Etude Mainframe/AS400
    Secteur : Finance

    Informations forums :
    Inscription : Novembre 2012
    Messages : 1 763
    Points : 10 740
    Points
    10 740
    Par défaut
    A noter aussi le problème (pas seulement lié à Tesla) de la généralisation du tout tactile dans les habitacles qui est une hérésie en terme d'ergonomie (sans parler d'une panne d'affichage où je ne vois pas comment on s'en sort). On n'a pas fait mieux que les boutons physiques pour régler les commandes en gardant vue sur la route.

  2. #82
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 412
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 412
    Points : 4 729
    Points
    4 729
    Par défaut
    Citation Envoyé par Darkzinus Voir le message
    On n'a pas fait mieux que les boutons physiques pour régler les commandes en gardant vue sur la route.
    La commande vocale fonctionne pas trop mal des démos que j'ai vu.
    Par exemple dire "J'ai chaud" à une Tesla fait baisser la température de consigne de la clim... Cela fait un peu gadget mais permet de garder les yeux sur la route ET les mains sur le volant. Tant que ça fonctionne en tout cas...

    Mais je suis d'accord, pour beaucoup de chose, un bouton est vachement plus simple à utiliser et plus fiable dans le temps et moins cher à réparer.

  3. #83
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 098
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 098
    Points : 3 356
    Points
    3 356
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Mais je suis d'accord, pour beaucoup de chose, un bouton est vachement plus simple à utiliser et plus fiable dans le temps et moins cher à réparer.
    Je suis un fervent défenseur des boutons, je ne comprend pas l'amour pour le tactile...
    A moins que le tactile soit un autre moyen de faire de l'obsolescence programmée, mais je commence à être complotiste.

  4. #84
    Modérateur
    Avatar de escartefigue
    Homme Profil pro
    bourreau
    Inscrit en
    Mars 2010
    Messages
    10 088
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : bourreau
    Secteur : Finance

    Informations forums :
    Inscription : Mars 2010
    Messages : 10 088
    Points : 38 393
    Points
    38 393
    Billets dans le blog
    9
    Par défaut
    J'ai récemment été renversé par un automobiliste qui attendait à un stop, j'étais à l'arrêt à moto derrière lui attendant qu'il avance, j'avais les deux pieds au sol et j'étais à environ 1m50 de son pare choc. Le conducteur a subitement enclenché sa marche arrière et reculé en percutant ma moto.
    Quand j'ai vu les feux de recul s'allumer, j'ai pourtant klaxonné à deux reprises, en vain.
    Je précise qu'il faisait jour, il était environ 15h et grand soleil, j'avais mon feu de route allumé (c'est automatique sur les motos récentes).
    Bref, il n'y avait aucune raison apparente pour que ce conducteur ne me voie pas et ne m'entende pas.
    Il était peut être simplement préoccupé ou au téléphone, allez savoir.

    Bref l'autopilot n'est sans doute pas parfait, mais l'humain non plus.

    Le risque zéro n'existe pas.

  5. #85
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 916
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 916
    Points : 1 930
    Points
    1 930
    Par défaut
    Je vois une énorme différence entre autopilot et cet exemple.
    Ici on a un conducteur en train de faire autre chose alors qu'il aurait du être attentif ; c'est un travers humain compensable par des automatismes ou des aides à la conduite (exemple technologique ici : une camera qui hurlerait si elle constate un déplacement du véhicule avec le conducteur non concentré sur la route).
    L'autopilot fait du bouzin, suppose et devine, continue d'avancer en identifiant un obstacle une fraction de seconde détecté sur la route, une fraction de seconde détectée sur le trottoir... L'autopilot fait juste mal les choses en étant pleinement concentré. Et le pire c'est qu'on exige justement que le conducteur soit là pour compenser, conducteur a qui on a retiré 100% de l'attention en lui faisant rien faire.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  6. #86
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère
    Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère
    les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons

    L'année 2022 continue d'être très mouvementée pour Tesla. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a lancé au début du mois deux nouvelles enquêtes sur le constructeur de véhicules électriques. L'une porte sur la mort de deux motocyclistes percutés par l'arrière par des véhicules Tesla en juillet et l'autre sur des allégations de publicités mensongères portées contre l'entreprise en Californie. La NHTSA cherche à savoir si l'Autopilot, le système avancé d'aide à la conduite (ADAS) de Tesla, est capable de reconnaître correctement les motocyclistes le jour comme la nuit.

    Les accidents mortels impliquant l'Autopilot de Tesla sont de plus en plus fréquents et les autorités routières semblent plus inquiètes que jamais au sujet de la fiabilité du logiciel. Deux accidents mortels ont particulièrement attiré l'attention des régulateurs fédéraux américains au cours du dernier mois. Le premier accident mortel s'est produit aux premières heures du 7 juillet à Riverside, en Californie, lorsqu'une Tesla Model Y circulant sur la State Route 91 a percuté une moto par l'arrière, tuant son conducteur. Le deuxième accident mortel de moto s'est produit le 24 juillet, de nuit également, cette fois sur la I-15 à la sortie de Draper, dans l'Utah.

    Dans ce cas, une Tesla Model 3 roulait derrière une moto et l'a percutée, tuant son conducteur. Selon les rapports sur ces deux accidents, la patrouille routière de la Californie cherche toujours à savoir si l'Autopilot était actif lors du premier accident, mais le conducteur de l'Utah a admis qu'il utilisait l'assistance à la conduite au moment de son accident. Cette semaine, les médias américains ont rapporté que des enquêteurs de la NHTSA se sont rendus sur les lieux des accidents dans le cadre d'une nouvelle enquête. La NHTSA soupçonne que le système d'aide à la conduite partiellement automatisé de Tesla était utilisé dans chaque cas.

    Nom : tesla-autopilot.jpg
Affichages : 3056
Taille : 58,7 Ko

    L'agence indique qu'une fois qu'elle aura recueilli davantage d'informations, elle pourra inclure ces accidents dans une enquête plus large portant sur les véhicules Tesla heurtant des véhicules d'urgence stationnés le long des autoroutes. La NHTSA enquête également sur plus de 750 plaintes selon lesquelles les véhicules Tesla peuvent freiner sans raison. Michael Brooks, directeur par intérim de l'organisation à but non lucratif Center for Auto Safety, a appelé la NHTSA à rappeler l'Autopilot de Tesla, car il ne reconnaît pas les motocyclistes, les véhicules d'urgence ou les piétons. Il s'agit d'une accusation soutenue par plusieurs critiques.

    « Il est assez clair pour moi, et cela devrait l'être pour beaucoup de propriétaires de Tesla maintenant, que ce système ne fonctionne pas correctement et qu'il ne répondra pas aux attentes, et qu'il met des personnes innocentes en danger sur les routes », a déclaré Brooks. Selon des rapports de la NHTSA, depuis 2016, l'agence a envoyé des équipes sur 39 accidents dans lesquels des systèmes de conduite automatisée sont soupçonnés d'être utilisés. Parmi ceux-ci, 30 impliquaient des Teslas, y compris des accidents qui ont causé 19 décès. Brooks a critiqué l'agence pour avoir continué à enquêter, mais sans prendre des mesures.

    « Qu'est-ce qu'ils font pendant que ces accidents continuent de se produire ? Les conducteurs sont leurrés en pensant que cela les protège, eux et les autres sur les routes, mais cela ne fonctionne tout simplement pas », a-t-il déclaré. Tesla a abandonné l'utilisation du radar de ses systèmes et s'appuie uniquement sur des caméras et la mémoire des ordinateurs. Mais Brooks et d'autres défenseurs de la sécurité affirment que l'absence de radar nuit à la vision dans l'obscurité. Tesla a déclaré que l'Autopilot et le FSD (Full Self-Driving) ne peuvent pas se conduire eux-mêmes, et que les conducteurs doivent être prêts à intervenir à tout moment.

    La NHTSA enquête également pour déterminer si la suppression du capteur radar est à l'origine d'un problème de "freinage fantôme" qui a donné lieu à des centaines de plaintes auprès du régulateur. L'absence de radar prospectif et le recours exclusif aux caméras pourraient bien être un facteur déterminant dans ces deux accidents mortels, même si des systèmes de régulation adaptative de la vitesse moins controversés ont montré qu'ils avaient des problèmes avec les motos si elles roulaient près du bord d'une voie. La seconde enquête ouverte au début du mois par l'agence porte sur des allégations de publicités mensongères visant Tesla.

    En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par le FSD, c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.

    Le département californien des véhicules à moteur a accusé Tesla de publicité mensongère dans sa promotion de l'Autopilot et de sa version améliorée, le FSD. Selon les médias locaux, les accusations ont été formulées dans des plaintes déposées auprès du bureau des audiences administratives de l'État le 28 juillet. Dans une interview en juin, l'administrateur de la NHTSA, Steven Cliff, a déclaré que l'agence intensifiait ses efforts pour comprendre les risques posés par les véhicules automatisés afin de pouvoir décider des réglementations nécessaires pour protéger les conducteurs, les passagers et les piétons.

    Il n'existe pas de réglementation fédérale couvrant directement les véhicules autonomes ou ceux dotés de systèmes d'aide à la conduite partiellement automatisés tels que le système Autopilot. Cependant, l'agence affirme que cette technologie est très prometteuse pour réduire les accidents de la route. Elle a également ordonné à tous les constructeurs automobiles et aux entreprises technologiques dotés de systèmes de conduite automatisée de signaler tous les accidents. L'agence a publié un premier lot de données en juin, montrant que près de 400 accidents ont été signalés sur une période de 10 mois, dont 273 avec des Teslas.

    Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite. La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom du système, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.

    La NHTSA a toutefois mis en garde contre les comparaisons, affirmant que la télématique de Tesla lui permet de recueillir des données en temps réel, et beaucoup plus rapidement que les autres entreprises. Le mois dernier, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le balisage d'un chantier de construction.

    L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

    Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.

    À terme, Musk affirme que les véhicules Tesla se conduiront tout seuls, permettant ainsi la création d'une flotte de robotaxis autonomes qui augmenteront les bénéfices de Tesla. En 2019, Musk s'était engagé à faire fonctionner les robotaxis en 2020. Cependant, l'entreprise ne parvient toujours pas à convaincre avec l'Autopilot.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des accidents impliquant l'Autopilot de Tesla ?
    Que pensez-vous du système d'aide à la conduite de l'entreprise ? Est-il fiable ?
    Pensez-vous que les autorités devraient interdire à Tesla de commercialiser l'Autopilot ?

    Voir aussi

    L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

    Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

    Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

    Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

    Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut L'activiste Ralph Nader demande aux régulateurs de rappeler la technologie de conduite autonome de Tesla
    « L'une des actions les plus dangereuses et irresponsables d'une entreprise automobile depuis des décennies »
    l'activiste Ralph Nader demande aux régulateurs de rappeler la technologie FSD de Tesla

    Ralph Nader, un militant des droits des consommateurs et du grand public, a récemment sévèrement critiqué la technologie de conduite autonome de Tesla. Dans une lettre aux régulateurs, Nader a déclaré que l'Autopilot de Tesla et sa version améliorée, le Full Self-Driving (FSD), sont dangereux et ne devraient pas être autorisés sur les routes. Il a décrit le déploiement à grande échelle par Tesla du FSD comme étant "l'une des actions les plus dangereuses et les plus irresponsables menées par un constructeur automobile depuis des décennies". Nader demande aux régulateurs de rappeler cette technologie.

    Ralph Nader est probablement le militant américain le plus célèbre pour les droits des consommateurs et du grand public, un rôle qui l'a amené à plusieurs reprises à entrer en conflit avec les entreprises et le gouvernement. Nader a fait la une des journaux en 1965 avec son livre "Unsafe at Any Speed", qui reprochait à l'industrie automobile de produire des véhicules dangereux. Il est devenu un héros aux yeux de plusieurs personnes lorsque des cadres de General Motors ont engagé des détectives privés pour le harceler, avant de lui présenter des excuses publiques lors d'une audition télévisée d'une commission sénatoriale.

    Dans sa lettre aux régulateurs, postée sur son propre site Web, Nader critique vivement Tesla et reproche à la société d'avoir déployé à grande échelle une technologie encore expérimentale. « Le déploiement majeur par Tesla de la technologie dite d'autoconduite intégrale (FSD) est l'une des actions les plus dangereuses et les plus irresponsables menées par un constructeur automobile depuis des décennies. Tesla n'aurait jamais dû intégrer cette technologie dans ses véhicules. Aujourd'hui, plus de 100 000 propriétaires de Tesla utilisent une technologie dont les recherches montrent qu'elle fonctionne mal toutes les huit minutes », a-t-il écrit.

    Nom : poilkj.png
Affichages : 27104
Taille : 437,0 Ko

    Tesla a toujours insisté sur le fait que les fonctions Autopilot et FSD de ses véhicules électriques sont sûres, plus sûres que la conduite humaine. « Les fonctions Autopilot et FSD de Tesla améliorent la capacité de nos clients à conduire de manière plus sûre que le conducteur moyen aux États-Unis », a écrit Rohan Patel, directeur principal de la politique publique chez Tesla, dans une lettre adressée le 4 mars 2022 à des sénateurs démocrates américains qui avaient demandé à la société des explications sur l'augmentation rapide du nombre d'accidents impliquant l'Autopilot. Cependant, les sénateurs et les activistes ne sont pas vraiment convaincus.

    Elon Musk, PDG de Tesla, présente les voitures autonomes comme la prochaine grande nouveauté depuis des années. En 2015, il a déclaré que les véhicules autonomes seraient sur la route d'ici deux ans. Bien que ce calendrier n'ait pas été respecté, Musk n'a pas encore renoncé à son rêve ni tempéré ses ambitions. En mai 2022, il a une nouvelle fois déclaré que les voitures entièrement autonomes devraient être disponibles à la même époque l'année prochaine. Mais Nader, qui a été quatre fois candidat à l'élection présidentielle et précurseur des normes modernes de sécurité automobile, pense que Musk a causé assez de dégâts et qu'il faut l'arrêter.

    « Je demande aux régulateurs fédéraux d'agir immédiatement afin d'empêcher la multiplication des décès et des blessures dus aux accidents provoqués par Tesla avec cette technologie. La National Highway Traffic Safety Administration (NHTSA) a le pouvoir d'agir rapidement pour prévenir de tels désastres. La NHTSA enquête depuis de nombreuses années sur Tesla et sa technologie de conduite entièrement autonome. La NHTSA doit utiliser son pouvoir de rappel de sécurité pour ordonner que la technologie FSD soit retirée de chaque Tesla », demande-t-il au régulateur. Nader estime que la responsabilité de Tesla devrait être engagée dans les accidents.

    « Notre pays ne doit pas permettre que ce logiciel défectueux, dont Tesla elle-même prévient qu'il peut faire "la mauvaise chose au pire moment", circule dans les rues où les enfants vont à l'école. Ensemble, nous devons envoyer un message urgent aux autorités de réglementation soucieuses de la sécurité des victimes : les Américains ne doivent pas servir de cobayes à une entreprise puissante et très médiatisée et à son PDG célèbre. Personne n'est au-dessus des lois de l'homicide involontaire », a-t-il conclu. Rappelons que, pour ses contributions à la sécurité des véhicules, Nader a même été intronisé dans l'Automotive Hall of Fame en 2016.

    La lettre de Nader est la dernière d'un chœur croissant de voix appelant le gouvernement à prendre une décision sur le FSD de Tesla, qui, selon les critiques, repousse les limites de ce qui devrait être disponible pour les conducteurs. La NHTSA enquête actuellement sur 16 accidents dans lesquels des propriétaires de véhicules Tesla utilisant Autopilot ont percuté des véhicules d'urgence à l'arrêt, faisant 15 blessés et un mort. La plupart de ces incidents ont eu lieu après la tombée de la nuit, le logiciel ignorant les mesures de contrôle de la scène, notamment les feux de signalisation, les fusées éclairantes, les cônes et un panneau fléché éclairé.

    L'enquête a récemment été transformée en "analyse technique", qui constitue la deuxième et dernière phase d'une enquête avant un éventuel rappel. Dès la livraison, les véhicules Tesla sont équipés de l'Autopilot. Pour 12 000 dollars de plus, les propriétaires peuvent acheter l'option avancée FSD, dont Musk a promis à plusieurs reprises qu'elle offrirait un jour des capacités entièrement autonomes. Mais à ce jour, le FSD reste également un système avancé d'aide à la conduite de "niveau 2". Cela signifie que le conducteur doit rester pleinement impliqué dans le fonctionnement du véhicule lorsqu'il est en mouvement.

    Outre les accidents impliquant des véhicules d'urgence, la NHTSA a également dressé une liste d'enquêtes spéciales sur d'autres accidents, dans le cadre desquelles l'agence recueille des données allant au-delà de ce que les autorités locales et les compagnies d'assurance collectent généralement sur les lieux. Fin juillet, 48 accidents figuraient sur la liste des enquêtes spéciales de l'agence, dont 39 impliquent des véhicules Tesla utilisant l'Autopilot. Selon les données de la NHTSA, dix-neuf personnes, dont des conducteurs, des passagers, des piétons, d'autres conducteurs et des motocyclistes, ont été tuées dans ces accidents de Tesla.

    Début août, le DMV (Department of Motor Vehicles) de Californie a accusé Tesla de faire de la publicité mensongère pour ses fonctions Autopilot et FSD, alléguant que la société a fait des déclarations "fausses ou trompeuses" sur les capacités de conduite autonome de ses véhicules. L'action du DMV pourrait entraîner la suspension des licences de Tesla pour produire et vendre des voitures en Californie. Notons que Tesla a déjà fait face à des plaintes similaires par le passé. En 2016, l'Allemagne a demandé à l'entreprise de cesser d'utiliser le terme "Autopilot", craignant qu'il puisse suggérer que ses véhicules sont entièrement autonomes.

    L'année dernière, les sénateurs américains Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission (FTC) d'enquêter sur la façon dont Tesla fait la publicité de l'Autopilot et du FSD. Ils ont affirmé que le constructeur automobile a "exagéré les capacités de ses véhicules", ce qui pourrait "constituer une menace pour les automobilistes et les autres usagers de la route". Maintenant, Nader prête son expertise et sa réputation à la lutte. Le défenseur des consommateurs a déclaré que la NHTSA doit agir avant que quelqu'un d'autre ne soit tué.

    Source : Ralph Nader

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de l'activiste Ralph Nader ?
    Pensez-vous que les régulateurs devraient suivre ses recommandations ?
    Que pensez-vous des fonctions Autopilot et FSD des véhicules électriques de Tesla ?
    Selon vous, que se passerait-il si l'Autopilot et le FSD venaient à être interdits par les régulateurs ?

    Voir aussi

    Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

    L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

    Tesla déclare aux législateurs américains que le système Autopilot nécessite une "surveillance constante", et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur

    Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto

    Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #88
    Membre éclairé
    Inscrit en
    Mai 2003
    Messages
    265
    Détails du profil
    Informations personnelles :
    Âge : 43

    Informations forums :
    Inscription : Mai 2003
    Messages : 265
    Points : 707
    Points
    707
    Par défaut
    et pendant ce temps, Mercedes a obtenu le niveau 3 pour son Drive Pilot en Allemagne, dispo sur ses classes S et EQS:
    https://journalauto.com/constructeur...e-de-niveau-3/
    le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.

    il est évident que le AutoPilot/FSD de Tesla est un logiciel beta depuis des années: il est surtout scandaleux que Tesla fasse son marketing dessus alors qu il n a jamais obtenu + que le niveau 2.

  9. #89
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 562
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 562
    Points : 7 263
    Points
    7 263
    Par défaut
    Citation Envoyé par Eric80 Voir le message
    le niveau 3 n est toutefois validé QUE sur les autoroutes et QUE < 60 km/h, et exclu en cas de pluie, donc que ds les bouchons en fait.
    Est-ce que tu sais si ce truc se désactive au delà de 60 km/h? Et comment il détecte qu'il est bien sur une autoroute? Avec les lignes au sol?
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  10. #90
    Membre éclairé Avatar de laloune
    Homme Profil pro
    Consultant en Business Intelligence
    Inscrit en
    Mai 2005
    Messages
    484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Consultant en Business Intelligence

    Informations forums :
    Inscription : Mai 2005
    Messages : 484
    Points : 870
    Points
    870
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    Et comment il détecte qu'il est bien sur une autoroute? Avec les lignes au sol?
    peut-être tout bêtement avec le GPS ?
    laloune
    Consultant B.I.
    Spécialité(s): Excel, SQL, Business Intelligence (Jedox Palo, Talend)

    "A problem worthy of attack proves its worth by fighting back." Piet Hein

  11. #91
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 385
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 385
    Points : 196 440
    Points
    196 440
    Par défaut Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre
    Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre,
    soit une augmentation de 3 000 $

    Tesla a annoncé que son logiciel Full-Self Driving va coûter 15 000 $ en Amérique du Nord à partir du 5 septembre. Il coûte actuellement 12 000 $.

    Plus tôt ce mois-ci, le Department of Motor Vehicles (DMV) de Californie a accusé Tesla de faire des « déclarations fausses ou trompeuses » sur les capacités de conduite autonome de ses véhicules. Le DMV allègue que les noms Autopilot et FSD, ainsi que le langage utilisé par Tesla pour les décrire, pourraient tromper les utilisateurs en leur faisant croire que les véhicules peuvent fonctionner de manière autonome.

    En août dernier, les sénateurs Ed Markey (D-MA) et Richard Blumenthal (D-CT) ont demandé à la Federal Trade Commission d'enquêter sur la manière dont Tesla fait la publicité de ses logiciels FSD et Autopilot. Les deux législateurs ont ensuite envoyé une lettre à Musk pour « exprimer des inquiétudes importantes » concernant le système d'assistance à la conduite de Tesla, auquel Tesla a répondu en disant que son système pouvait aider les clients à « conduire de manière plus sûre que le conducteur moyen aux États-Unis ».


    Tesla a annoncé une augmentation du prix de son logiciel Full-Self Driving (FSD) qui passera à 15 000 $. Dans un message sur Twitter, le PDG de Tesla, Elon Musk, a annoncé que le nouveau prix entrera en vigueur en Amérique du Nord à partir du 5 septembre, ce qui représente un bond de 3 000 $.

    Les conducteurs qui commandent un véhicule avant le 5 septembre n'auront pas à payer le prix nouvellement augmenté, a indiqué Musk. La hausse des prix intervient alors que Tesla commence à déployer la version bêta 10.69 de FSD pour les conducteurs, une version que Musk appelle « un grand pas en avant ». On ne sait toujours pas si Tesla prévoit d'augmenter le prix de son abonnement FSD, qui coûte actuellement 199 $ par mois.

    Nom : musk.png
Affichages : 2786
Taille : 24,4 Ko

    Le logiciel FSD permet aux conducteurs d'utiliser le système avancé d'aide à la conduite (ADAS) de Tesla, Autopilot, pour naviguer vers et depuis des destinations spécifiques, entre autres fonctions d'assistance à la conduite. FSD ne rend pas un véhicule entièrement autonome*; il oblige les conducteurs à garder les mains sur le volant et à faire attention à la route en tout temps.

    Le prix de la version bêta FSD de Tesla a lentement augmenté au fil des ans et a coûté 5 000 $ au lancement. Mais lorsque Tesla a commencé à déployer la version bêta de FSD auprès d'un groupe restreint de clients en octobre 2020, le prix a augmenté à 10 000 $. En septembre 2021, Tesla a commencé à ouvrir la version bêta à davantage de clients via un nouveau bouton « demande » avant d'augmenter le prix à 12 000 $ plus tôt cette année.

    En 2019, Musk a qualifié les véhicules Tesla « d'actifs appréciés », ce qui signifie qu'ils prendront de la valeur à mesure que Tesla lancera des fonctionnalités supplémentaires d'assistance à la conduite. Musk a affirmé plus tard que « la valeur de FSD » pourrait atteindre plus de 100 000 dollars « à mesure que le logiciel se rapproche de la pleine capacité d'autoconduite avec l'approbation réglementaire ».

    Nom : conduite.png
Affichages : 2646
Taille : 237,5 Ko

    Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière

    Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l'année écoulée environ, selon les régulateurs, bien plus que ce que l'on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.

    Les chiffres, qui ont été publiés par la National Highway Traffic Safety Administration en juin 2022, montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d'assistance à la conduite signalés depuis juillet 2021, et la majorité des décès et blessures graves, dont certaines remontent à plus d'un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA.

    Auparavant, la NHTSA avait déclaré avoir enquêté sur 42 accidents impliquant potentiellement l'assistance au conducteur, dont 35 incluaient des véhicules Tesla, dans un ensemble de données plus limité qui remontait à 2016.

    Sur les six décès répertoriés dans l'ensemble de données publié mercredi, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.

    Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu'ils doivent faire attention à tout moment. Les voitures peuvent maintenir la vitesse et la distance de sécurité derrière les autres voitures, rester dans leurs lignes de voie et effectuer des changements de voie sur les autoroutes. Un ensemble étendu de fonctionnalités encore en version bêta, le "Full Self-Driving", ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s'arrêter aux panneaux d'arrêt et aux feux de circulation, et de faire des virages tout en naviguant d'un point à un autre.

    Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d'autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d'enquêtes, de rappels et même d'avertissements publics dirigés contre l'entreprise.

    Le nouvel ensemble de données découle d'une ordonnance fédérale de l'été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l'assistance à la conduite afin d'évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d'assistance à la conduite, Autopilot, environ une seconde avant l'impact, selon les régulateurs.

    L'ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n'était pas utilisé au moment de l'impact.

    « Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l'administrateur de la NHTSA, Steven Cliff, lors d'un appel aux médias concernant l'ensemble complet de données des fabricants.

    Tesla a déclaré qu'Autopilot est plus sûr que la conduite normale lorsque les données d'accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à « réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».

    Les données opposant la conduite normale à Autopilot ne sont pas directement comparables, car Autopilot fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».

    Les politiques s'en mêlent

    Des entreprises telles que Tesla collectent plus de données que d'autres constructeurs automobiles, ce qui pourrait les laisser surreprésentées dans les données, selon des experts des systèmes ainsi que certains responsables qui se sont exprimés sous couvert d'anonymat pour décrire franchement les résultats. Tesla pilote également une grande partie de la technologie, dont certaines sont livrées en standard sur ses voitures, la mettant entre les mains d'utilisateurs qui se familiarisent plus rapidement avec elle et l'utilisent dans une plus grande variété de situations.

    Plusieurs législateurs ont pesé sur le rapport de la NHTSA, certains appelant à une enquête plus approfondie et à d'éventuelles normes de sécurité pour les voitures dotées de la technologie. Le sénateur Richard Blumenthal (D-Conn.) a qualifié les découvertes de « profondément alarmantes ».

    « C'est une sonnette d'alarme qui confirme bon nombre des avertissements que nous avons lancés au fil des ans », a-t-il déclaré. « La fréquence et la gravité de ces accidents sont une cause de carte jaune et peut-être de carton rouge sur certaines de ces technologies ».

    Blumenthal et le sénateur Edward J. Markey (D-Mass.) ont précédemment critiqué Tesla pour avoir mis des logiciels sur les routes « sans pleinement tenir compte de ses risques et de ses implications ». Lors d'un appel avec les médias mercredi, Markey a dénoncé l'affirmation de Tesla selon laquelle la technologie d'Autopilot rend les voitures plus sûres.

    « Ce rapport fournit des preuves supplémentaires qui freinent les affirmations de Tesla », a-t-il déclaré.

    Les sénateurs ont envoyé une lettre à la NHTSA, disant qu'ils étaient « profondément troublés » par les données et appelant le régulateur « à utiliser toutes ses autorités d'enquête et de réglementation pour faire la lumière nécessaire sur cette industrie incontrôlable et imposer des garde-fous pour empêcher plus de décès ».

    Dans la lettre, les sénateurs ont spécifiquement souligné les 273 accidents « stupéfiants » signalés par Tesla.

    Tesla licencie un employé qui a publié sur YouTube des vidéos d'un accident impliquant le Full Self-Driving

    Les employés ont-ils le droit de critiquer en public les échecs ou les produits de leur entreprise ? La question divise l'opinion depuis que l'histoire de John Bernal, ex-employé de Tesla, a été publiée par les médias américains. Bernal a confié qu'il a commencé par créer ces vidéos depuis environ un an et a mis en place une chaîne YouTube, "AI Addict", pour les partager et montrer comment la version bêta du FSD fonctionnait dans différents endroits de la Silicon Valley. Bernal a posté le 4 février dernier une vidéo d'un accident "mineur" dans lequel sa voiture Tesla, avec le FSD activé, a heurté une borne qui semble séparer une voie réservée aux voitures d'une voie pour vélos à San Jose.

    Dans une vidéo ultérieure publiée le 7 février, présentant une analyse image par image de la collision, Bernal a déclaré que "peu importe à quel point cet accident était mineur, c'est la première collision de la bêta du FSD filmée par une caméra qui est irréfutable". Cependant, son licenciement et la coupure de la version bêta du FSD sont intervenus peu de temps après ces deux publications. « J'ai été licencié de Tesla en février et mon YouTube a été cité comme le motif de mon licenciement, même si mes téléchargements sont effectués dans mon véhicule personnel, en dehors du temps ou de la propriété de l'entreprise, avec un logiciel que j'ai payé », a déclaré Bernal.


    Il fait cette déclaration dans un vidéo qu'il a publié en mars sur sa chaîne YouTube. En effet, Bernal a commencé à travailler pour Tesla en tant que spécialiste de l'annotation de données en août 2020 dans un bureau de San Mateo, en Californie. Il a commandé une Model 3 de 2021 avec une batterie dotée d'une longue autonomie quelques mois après avoir commencé à y travailler. Il a pris livraison de la voiture le 26 décembre 2020. Dans des déclarations aux médias, il a déclaré avoir acheté la voiture en partie parce que Tesla offrait aux employés un accès gratuit au FSD - qui valait alors 8 000 dollars - en tant qu'avantage.

    En échange, les employés devaient accepter de donner à l'entreprise le droit de collecter les données internes et externes des véhicules. C'est la voiture qui lui permet de faire les tests du FSD. La plupart des vidéos d'AI Addict montrent Bernal en train de parcourir la Silicon Valley avec un ami dans sa Tesla, en utilisant les dernières versions du logiciel FSD Beta. Il n'est pas le seul à poster ses expériences avec le logiciel expérimental de Tesla. Les utilisateurs de version bêta du FSD de Tesla comme Dirty Tesla, Chuck Cook, Kim Paquette et bien d'autres s'empressent de passer en revue chaque nouvelle version sur leurs chaînes.

    Lorsque Tesla a licencié Bernal le mois dernier, son avis de licenciement écrit ne mentionnait pas la raison de son licenciement. Mais Bernal a déclaré qu'avant d'être licencié, ses supérieurs lui ont notifié verbalement qu'il avait enfreint la politique de Tesla et que sa chaîne YouTube constituait un "conflit d'intérêts". Cependant, il a déclaré qu'il a toujours été transparent au sujet de sa chaîne YouTube, tant avec ses managers chez Tesla qu'avec le public. Son CV en ligne sur LinkedIn, par exemple, mentionnait toujours son emploi chez Tesla juste à côté du nom de sa chaîne YouTube.

    Bernal a déclaré qu'il n'avait jamais vu de politique l'empêchant de créer des critiques techniques de voitures sur son temps libre et sur sa propre propriété. Une copie de la politique de Tesla en matière de médias sociaux, fournie par un employé actuel à CNBC, ne fait aucune référence directe à la critique des produits de la société en public. La politique stipule que "Tesla s'en remet au bon sens et au bon jugement de ses employés pour s'engager dans une activité responsable sur les médias sociaux". Elle énumère les réseaux sociaux, notamment Facebook, Twitter, Instagram, Reddit, Snapchat, LinkedIn, WeChat et les blogs personnels.

    Mais elle ne mentionne pas spécifiquement YouTube. Bernal a déclaré qu'il n'a jamais divulgué quoi que ce soit dans ses vidéos que Tesla n'avait pas divulgué au public. « Les versions bêta du FSD dont je faisais la démonstration étaient des produits de consommation destinés aux utilisateurs finaux », a-t-il déclaré. Toutefois, ses vidéos montraient parfois des problèmes avec la bêta du FSD de Tesla. Par exemple, en mars 2021, AI Addict a publié une vidéo intitulée "FSD Beta 8.2 Oakland - Close Calls, Pedestrians, Bicycles !" qui montrait sa voiture subissant plusieurs "désengagements".

    C'est là que le FSD demande à Bernal de reprendre la direction manuellement pour éviter le danger. À 11 minutes et 58 secondes dans la vidéo, le FSD commence à s'engager dans une intersection juste au moment où un véhicule traverse devant la Model 3 de Bernal. Il a évité de justesse de heurter l'autre voiture. Bernal a déclaré dernièrement : « après la diffusion de la vidéo, un responsable de mon équipe Autopilot a essayé de me dissuader de publier à l'avenir tout contenu négatif ou critique concernant le FSD. Ils ont tenu une vidéoconférence avec moi, mais n'ont jamais rien mis par écrit ».

    Source : Elon Musk

    Et vous ?

    Que pensez-vous de Full Self-Driving ?
    Qu'est-ce qui pourrait, selon vous, expliquer cette augmentation de prix ?

    Voir aussi :

    Tesla augmente le prix du logiciel Full Self Driving (FSD) à 12 000 $ aux États-Unis le 17 janvier, a annoncé le président-directeur général, Elon Musk, sur Twitter
    Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #92
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 916
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 916
    Points : 1 930
    Points
    1 930
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Qu'est-ce qui pourrait, selon vous, expliquer cette augmentation de prix ?
    Qu'en l'état de nullissitude du système c'est le seul moyen de lui donner de la valeur et je n'ai aucun doute que ça va marcher, comme pour tous les produits de luxe qui se basent sur ce principe du "c'est cher donc c'est bien".
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  13. #93
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 249
    Points
    66 249
    Par défaut Une vidéo semble montrer le système Autopilot d'une Tesla confondant une calèche avec un camion
    Une vidéo semble montrer le système Autopilot d'une Tesla confondant une calèche avec un camion
    le système piloté par l'IA n'a peut-être pas été formé à cette façon rudimentaire de se déplacer

    Une vidéo partagée la semaine dernière par le Youtubeur suisse RealRusty montre l'Autopilot de Tesla qui confond une calèche successivement avec un semi-remorque, un piéton et une berline. Cela suggère que les ingénieurs qui ont conçu le système n'ont peut-être pas pris en compte les moyens de transport historiques. La vidéo a été visionnée des millions de fois par des utilisateurs qui semblent trouver cette mésaventure humoristique. En outre, elle vient également nourrir le débat sur les capacités de l'Autopilot de Tesla à reconnaître correctement les personnes et les objets se trouvant dans son champ de vision.

    L'Autopilot de Tesla est ce que l'on appelle un système d'aide à la conduite autonome. En termes simples, il s'agit d'une fonction qui permet à un véhicule Tesla de voir les véhicules et la route (généralement l'autoroute) qui l'entourent, et de se conduire elle-même dans une certaine mesure. Le système Autopilot utilise des caméras, des capteurs à ultrasons et des radars pour voir et sentir l'environnement de la voiture. Selon le constructeur automobile américain, la suite de capteurs et de caméras permet au conducteur d'un véhicule Tesla d'avoir une conscience de son environnement qu'un conducteur seul n'aurait pas autrement.

    Il a jouté qu'un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressant". Toutefois, il estime que l'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome. Avant de l'activer, le conducteur doit accepter de "garder les mains sur le volant à tout moment" et de toujours "garder le contrôle et la responsabilité de sa voiture". Si cela n'est pas respecté, l'Autopilot émet une série croissante d'avertissements visuels et sonores pour rappeler le conducteur à l'ordre.



    Seulement, si Tesla n'a de cesse de déclarer que l'Autopilot rend la conduite humaine beaucoup plus sûre, l'expérience des utilisateurs tend à démontrer le contraire. Les vidéos partagées régulièrement par les utilisateurs montrent que le système a des difficultés dans plusieurs domaines, notamment à identifier correctement les usagers de la route. La dernière en date est une vidéo postée par le Youtubeur suisse RealRusty qui montre sa Tesla s'approchant d'une calèche sur une autoroute à l'extérieur de Zurich, en Suisse. Le fait marquant dans la vidéo est que la Tesla a identifié la calèche à tort comme plusieurs autres modes de transport.

    Le système semble identifier brièvement la calèche comme une voiture, un humain, un humain marchant derrière une voiture, un humain marchant derrière un camion, et comme un camion seul. À un moment donné, lorsque la calèche est apparemment identifiée à tort comme un camion, l'Autopilot montre le "camion" qui tourne sur lui-même comme s'il était destiné à une collision frontale avec la Tesla. « Nous étions en train de conduire dans notre Tesla Model Y lorsque cette calèche est apparue devant nous. Incapables de passer, nous sommes restés derrière et avons regardé la visualisation de Tesla essayer de la repérer », a déclaré RealRusty.

    « En commençant par une moto, une voiture, un camion faisant marche arrière, tout était là ! Heureusement, nous avons tout enregistré avec [un] smartphone », a-t-il ajouté. La vidéo commence en montrant la Tesla qui se dirige vers la calèche blanche transportant deux personnes et le système suggère instantanément qu'il s'agit d'un grand semi-remorque. Mais ensuite, le semi-remorque numérique disparaît de l'écran et un piéton apparaît, mais personne ne se trouvait réellement sur la route. Le semi-remorque réapparaît à l'écran, mais se déplace cette fois-ci vers l'arrière et sur les côtés.

    Selon certains commentateurs, cela leur a donné des "vibrations de Destination finale". Pour rappel, "Destination finale" est une série de films qui se concentre sur un groupe de personnes qui tentent d'éviter la mort et dans le deuxième film, un semi-remorque transportant des rondins de bois a causé des morts en masse sur une autoroute. L'Autopilot est conçu pour détecter les véhicules, les piétons et d'autres objets à proximité de la voiture, et prendre des mesures d'évitement si nécessaire. Cependant, il n'est pas certain que les concepteurs d'Autopilot aient inclus une calèche parmi les véhicules que le système peut détecter.

    Plusieurs commentateurs de la vidéo se moquent du manque de précision de l'Autopilot, car Elon Musk, PDG de Tesla, vante régulièrement le système comme étant l'un des plus sophistiqués. Mais la technologie n'a pas encore tenu une seule des promesses répétées de Musk depuis des années et a entraîné le rappel de nombreux véhicules Tesla. En février, l'entreprise a rappelé près de 54 000 voiture et SUV parce qu'une mise à jour de l'Autopilot leur permettait de franchir des panneaux d'arrêt sans s'arrêter complètement. Mais cet incident n'est pas isolé. Par le passé, Tesla a rappelé d'autres véhicules après une mise à jour défectueuse de l'Autopilot.

    En avril, une vidéo "profondément troublante" a montré une Tesla avec l'Autopilot activé écrasant un mannequin de taille enfantine lors d'un test effectué par un groupe de défense de la sécurité. Selon les testeurs, le véhicule n'aurait pas détecté la présence du mannequin immobile sur la route. Le système l'aurait percuté à plusieurs reprises à une vitesse moyenne de 40 km/h. Les défenseurs de la sécurité se plaignent que Tesla ne devrait pas être autorisée à tester ses véhicules sur des routes publiques avec des conducteurs non formés, et que l'Autopilot peut mal fonctionner, exposant ainsi les autres usagers au danger.

    La plupart des constructeurs automobiles disposant d'un logiciel similaire effectuent leurs tests avec des conducteurs formés à la sécurité. Jusqu'ici, l'Autopilot semble avoir du mal à identifier les motocyclistes et les véhicules de secours. Depuis janvier 2018, la National Highway Traffic Safety Administration (NHTSA) des États-Unis a signalé plus d'une dizaine de cas d'accidents dans lesquels des véhicules Tesla avec l'Autopilot activé se sont écrasés contre des véhicules de secours ou de police en stationnement. Cette année, des véhicules Tesla en mode Autopilot ont percuté par l'arrière des motocyclistes, tuant leurs conducteurs.

    La NHTSA enquête actuellement sur ce problème des véhicules Tesla. Le régulateur américain cherche à savoir si l'Autopilot est capable d'identifier correctement les motocyclistes et les véhicules de secours le jour comme la nuit. Toutefois, malgré ces mésaventures, Tesla continue de faire la publicité de son système et a même récemment décidé d'augmenter le prix de l'option Full Self-Driving (FSD). Tesla a annoncé que le FSD va coûter 15 000 dollars en Amérique du Nord à partir du 5 septembre, contre 12 000 dollars actuellement. L'entreprise a augmenté le prix de son logiciel plus de trois fois en moins de deux ans.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la difficulté de l'Autopilot à identifier la calèche ?
    Que pensez-vous de l'augmentation du prix du FSD malgré les inquiétudes autour de la technologie ?

    Voir aussi

    Tesla augmente le prix de son logiciel Full Self-Driving qui va passer à 15 000 $ dès le 5 septembre, soit une augmentation de 3 000 $

    Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère, les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons

    Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

    Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #94
    Membre habitué
    Homme Profil pro
    Gestionnaire de projet dans le BTP
    Inscrit en
    Janvier 2017
    Messages
    86
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Gestionnaire de projet dans le BTP
    Secteur : Bâtiment Travaux Publics

    Informations forums :
    Inscription : Janvier 2017
    Messages : 86
    Points : 134
    Points
    134
    Par défaut
    C'est de la folie de mettre de tels systèmes défaillants sur la voie publique, presque criminel.
    Quand je vois la sécurité qui est exigé pour des transports autonomes en site propre, tel que des métros ou des téléphériques, ... Tesla n'aurais jamais la moindre autorisation.

  15. #95
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    J'ai une tesla, et la première chose qui m'a surpris, vu le prix, ce sont les matériaux bas de gamme qui compose le véhicule.

    Je suis pour qu'on fasse tous des efforts, mais pas pour que ces efforts servent de prétexte à une mutation des coups bas de l'industrie afin de trouver une nouvelle manière de se faire de l'argent (même si j'ai bien conscience que ça ne changera jamais)

  16. #96
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 098
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 098
    Points : 3 356
    Points
    3 356
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Que pensez-vous de la difficulté de l'Autopilot à identifier la calèche ?
    Sur ce point là je suis peut être prêt à défendre Tesla.
    Peut importe qu'elle détecte que c'est une calèche, un camion ou une voiture tant qu'elle garde un comportement normal (ce qui est loin d'être garanti vu certaines expériences passées).
    Si elle détecte un volume, une direction et une vitesse de déplacement elle doit être capable d'éviter de rentrer dedans, je suppose.
    Citation Envoyé par Bill Fassinou Voir le message
    Que pensez-vous de l'augmentation du prix du FSD malgré les inquiétudes autour de la technologie ?
    Je penses que vendre à ce prix pour un produit qui ne fonctionne pas bien s'approche de l'arnaque.
    Et augmenter le prix consiste essentiellement à évaluer à quel point les clients sont des pigeons.

  17. #97
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 815
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 815
    Points : 50 880
    Points
    50 880
    Par défaut Tesla demande le retrait en ligne d’une vidéo montrant ses véhicules qui heurtent des mannequins
    Tesla demande le retrait en ligne d’une vidéo montrant ses véhicules qui heurtent des mannequins de la taille d’un enfant
    Et ravive le débat sur la fiabilité de son système de conduite dit autonome

    Tesla demande à un groupe de pression de retirer les vidéos de ses véhicules percutant des mannequins de la taille d'un enfant, affirmant que les images sont diffamatoires et donnent une fausse image de son logiciel d'aide à la conduite le plus avancé. Les développements en cours surviennent en effet après des plaintes d’Elon Musk de ne pas voir plus de cas de vie sauvées par l’Autopilot mis en avant par les médias.

    Nom : 1.png
Affichages : 3604
Taille : 56,2 Ko

    Tesla s'oppose à une vidéo publicitaire du groupe Dawn Project qui montre ses véhicules heurtant des mannequins à plus de 30 km par heure. La publicité préconise l'interdiction par les autorités compétentes du logiciel Full Self Driving Beta de Tesla, qui permet aux véhicules du constructeur de circuler en ville et dans les rues résidentielles en maintenant automatiquement leur trajectoire, en changeant de voie et en se dirigeant.


    Cette publicité a suscité une vague d'articles et de critiques à l'égard du logiciel de Tesla, qui fait l’objet de tests dans une version préliminaire par plus de 100 000 utilisateurs sur la voie publique dans des pays comme les États-Unis et le Canada.

    L'homme à l'origine du projet Dawn, le milliardaire et fondateur d'entreprise technologique Dan O'Dowd, dirige Green Hills Software, qui développe des systèmes d'exploitation pour les avions et les voitures, ce qui fait de lui un concurrent potentiel sur le marché des logiciels automobiles. Il s'est également présenté au Sénat américain cette année. O'Dowd explique qu'il s'en prend à Tesla parce qu'il est convaincu que la technologie, comme de nombreux autres logiciels sur lesquels les gens comptent dans le monde moderne, n'est pas assez sûre et doit être repensée - et dans ce cas, doit être interdite. « Le logiciel FSD de Tesla est le pire projet commercial que j’ai jamais vu », lance-t-il.

    La vidéo suscite des réactions de la part des partisans de Tesla qui déclarent que le test du groupe Dawn Project est susceptible d’être manipulé. Certains ont d’ailleurs cherché à reproduire les démonstrations - impliquant parfois de vrais enfants - afin de montrer que le logiciel de conduite autonome proposé par Tesla fonctionne. Une expérience en faveur de la réputation du logiciel Autopilot de Tesla est celle de la naissance d’un bébé sur le siège avant d’un véhicule de l’entreprise en mode pilote automatique.

    Au cours du mois de décembre de l’année précédente, des médias ont rapporté que la poche des eaux de Yiran Sherry s'est rompue alors que la famille était coincée dans les embouteillages. Les contractions augmentant rapidement et la circulation étant à peine fluide, le couple a réalisé qu'il n'arriverait pas à temps. Keating Sherry (son conjoint) a mis le véhicule en pilotage automatique après avoir réglé le système de navigation – dont la dernière version bêta du Full Self Driving lancée au terme du mois de novembre est équipée – vers l'hôpital, situé à 20 minutes de là. Il n’a ensuite eu qu’à poser la main sur le volant du véhicule qui les a menés jusqu’à la formation hospitalière pendant qu’il s’occupait de sa femme. La prise en charge de la dame s’est faite dans le véhicule.


    Le cas Keating et Yirran faisait suite à celui d’un propriétaire de Tesla Model 3 qui avait affirmé devoir la vie à la technologie Autopilot : « Je suis sur la voie de droite, c’est une zone [où la vitesse limite minimale est] de 90 km/h et le pilote automatique est réglé à 102 km/h, quand un imbécile roulant probablement à 150 peut-être 160 km/h surgit de nulle part. Je suppose qu’il a l’intention de se faufiler entre moi et la voiture sur la voie de gauche, mais il n’y avait pas assez d’espace et le pilote automatique a pris des mesures évasives et a probablement sauvé ma vie aujourd’hui. »

    Il a partagé une séquence filmée par l’enregistreur vidéo de conduite (dashcam) de sa Tesla Model 3 dans laquelle on peut voir la voiture apparemment fautive qui essaye de le dépasser en s’engouffrant dans un trou de souris. Pendant sa manœuvre de dépassement, la voiture noire surgit brusquement depuis la voie située à l’extrême gauche sur l’autoroute pour doubler le véhicule gris qui la précède, mais menace au même moment de percuter la Tesla Model 3 à droite.

    Le système d’évitement de collision latérale automatique de la Tesla Model 3 a réagi de façon très rapide tout en gardant la voiture sous contrôle : d’abord en orientant la Tesla plus à droite vers une voie temporaire d'accélération/bretelle d'entrée libre à ce moment-là, puis en faisant revenir la Tesla à sa position initiale.


    Les blâmes dont l’entreprise est la cible peuvent néanmoins être la résultante d’une politique publicitaire à problème. L’entreprise fait usage du terme Autopilot susceptible d’induire ses clients en erreur quant aux capacités réelles du système. Le constructeur laisse par exemple la possibilité aux conducteurs de jouer à des jeux vidéo tout en conduisant et renforce ainsi l’image du véhicule autonome qu’il vend à ses clients. C’est d’avis des autorités américaines de la publicité mensongère susceptible d’amener les conducteurs à surestimer les capacités réelles des Tesla. Elon Musk pour sa part répond que les notices d’information qui accompagnent les véhicules de l’entreprise sont claires sur les capacités réelles de l’Autopilot : c’est de l’aide à la conduite.

    Source : O’Dowd

    Et vous ?

    Quel commentaire faites-vous de la position de Dan O’Dowd selon laquelle « le logiciel FSD de Tesla est le pire projet commercial qu’il ait jamais vu » ?
    Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
    Juste retour des choses pour Tesla en raison de sa politique publicitaire ?


    Voir aussi :

    L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances
    Autopilot : la dernière mise à jour de Tesla oblige à garder les mains sur le volant, par un renforcement du harcèlement des conducteurs
    Un hacker lance FreedomEV, un projet open source qui apporte de nouvelles fonctionnalités aux voitures Tesla, dont un mode de confidentialité
    La Model 3 de Tesla peut désormais rouler sur les routes européennes, elle obtient le feu vert de la part des autorités de l'UE
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  18. #98
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 758
    Points : 5 667
    Points
    5 667
    Par défaut
    La vraie question intéressante à mon sens est la suivante:

    Est-ce que les USA appliquent une loi "Musk"?


    Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

    Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.

  19. #99
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 098
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 098
    Points : 3 356
    Points
    3 356
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Quel commentaire faites-vous de la position de Dan O’Dowd selon laquelle « le logiciel FSD de Tesla est le pire projet commercial qu’il ait jamais vu » ?
    Je crois au contraire que c'est du génie.
    Musk c'est inspiré de Jobs, il a créé une communauté de hardcore défenseurs sur base de pas grand chose.
    Mais il a poussé le concept encore plus loin parce qu'il propose les trucs pas vraiment utiles beaucoup trop cher mais, et c'est là son concept révolutionnaire, qui en plus ne fonctionne pas.
    La R&T est en général un "pari sur l'avenir" : je dépense de l'argent aujourd'hui pour espérer en gagner demain. Mais Musk ne veut pas assumer ce risque et le fait financer pas ses clients.
    Et en plus il leur fait assurer la campagne de test/validation dans le milieu le plus représentatif de la réalité : le monde réel.
    C'est du génie pur. Du génie du mal pur. Le paroxysme du génie capitaliste.
    Citation Envoyé par Patrick Ruiz Voir le message
    Comment appréciez-vous les progrès technologiques en matière de véhicules autonomes ? Quelles sont les entreprises qui se démarquent selon vous ?
    C'est un sujet que je suit assez peu (en dehors des news que je croise) mais mercedes semble avoir de l'avance sur le sujet.
    Mais je ne sais pas à quel point leur IA s'intègre vraiment dans une circulation réelle, avec des imprévus.
    Citation Envoyé par Patrick Ruiz Voir le message
    Juste retour des choses pour Tesla en raison de sa politique publicitaire ?
    Tesla fait preuve d'une prétention incroyable, il ne faut pas s'étonner de se prendre des vagues de merdes quand on en fait et qu'on la vend au prix de l'or.
    Musk pousse bien trop loin son principe de "fake it till you make it"

  20. #100
    Membre extrêmement actif
    Homme Profil pro
    Développeur Java
    Inscrit en
    Septembre 2011
    Messages
    749
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Java
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Septembre 2011
    Messages : 749
    Points : 2 876
    Points
    2 876
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    La vraie question intéressante à mon sens est la suivante:

    Est-ce que les USA appliquent une loi "Musk"?


    Alors qu'un simple café-restaurant américain peut se voir condamner à des millions de dollar d'amende pour un client qui se serait brûlé la langue en buvant un café servi trop chaud, Tesla qui est déjà responsable de plusieurs dizaines de morts avec son pseudo auto-pilote n'est jamais inquiété.

    Et devinez quoi? Pas une seule condamnation, pas un seul juge pour prononcer une interdiction de poursuivre des essais sur route qui ne sont d'ailleurs plus des essais puisque réalisés dans la circulation normale par des clients lambda.
    Pour ça, il faudrait que quelqu'un porte plainte, et on dirait que personne n'a les co*****s ou juste la volonté de le faire. Entre les fans hardcore (et les fans Apple, à côté, font juste office de légèrement intéressés par les iphones), ceux qui n'ont pas pris assez d'options pour avoir eu des problèmes, et ceux qui ont peur de ce qu'ils vont trouver en face (un type égocentrique au possible et ses fans)... On aura peut-être des plaintes un jour, mais pour l'instant, on dirait que personne ne veut faire le premier pas.

    Il n'y a qu'à voir les réactions sur tweeter quand quelqu'un ose ne serait-ce que critiquer sa tesla...

    Et dire qu'à côté de ça, Mercedes ou Google testent encore à fond leurs véhicules autonomes pour qu'ils soient suffisamment sûrs pour être mis en circulation partout... (oui, je sais que les Google cars circulent, mais c'est limité à certaines villes)

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 10h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 10h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 22h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 15h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 04h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo