IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #221
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 413
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 413
    Points : 4 734
    Points
    4 734
    Par défaut
    Citation Envoyé par petitours Voir le message
    Non justement.
    Ce que montre Ryu2000 explique que c'est de pire en pire et le terme que vous utilisez "tampon" est bien choisi, on le rempli/consomme le tampon.
    Le premier freine et la distance de secu fait le job et ensuite le "tampon" est consommé de plus en plus avec abaissement de la brutalité de la baisse de vitesse qui entraine une réaction moins rapide qui consomme le "tampon" et ceci jusqu'à ce qu'il n'y ait overflow sur le tampon et craboum.

    Il y a des tonnes d'études sur le sujet, c'est sur ces mécanismes là que reposent les obligations de limitation de vitesse pour réguler le trafic et éviter les bouchons.
    Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

    Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

    Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

    Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.

  2. #222
    Membre extrêmement actif
    Profil pro
    Analyste cogniticien
    Inscrit en
    Novembre 2010
    Messages
    270
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Analyste cogniticien

    Informations forums :
    Inscription : Novembre 2010
    Messages : 270
    Points : 629
    Points
    629
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Bien que les conducteurs aient tendance à blâmer le FSD pour leurs erreurs lorsqu'un accident se produit, cette fois, le conducteur avait raison, comme le confirment les données publiées par le gouvernement fédéral mardi. Selon le rapport d'enquête cité par CNN, le logiciel controversé d'aide à la conduite a été activé environ 30 secondes avant l'accident. Les données montrent également que la voiture a brusquement ralenti à 11 km/h, un mouvement dangereux dans un trafic rapide.

    On ne sait pas ce qui cause le freinage fantôme, que Tesla n'a pas encore compris et corrigé. Tesla a dépouillé ses voitures de tous les capteurs, à l'exception des caméras vidéo, qui pourraient en être la cause principale. Après tout, les humains éprouvent des illusions d'optique, bien que rares. Il se peut que certaines conditions, comme une ombre se déplaçant rapidement sur la caméra, puissent faire croire au système qu'il y a un objet devant la voiture et déclencher le freinage.
    Tesla avait d'autres capteurs (comme des simples radars) qu'ils ont décidé de tout supprimer il y a quelques années pour remplacer par des simples caméras, alors qu'il est si facile de berner une caméra numérique, facilement éblouie ou pouvant souffrir d'un souci de balance des blancs suite à un changement d'éclairage, alors que cela peut être critique pour distinguer de la neige, un reflet sur une route humide, un véritable obstacle... Je me rappelle de l'argument de l'époque : ça coûte trop cher.

    Ah, pourtant pour activer le FSD il faut quand même 15 000 $, soit le prix d'une voiture thermique neuve à elle toute seule. Donc j'ai envie de dire, y'a de quoi foutre quelques radars pour compenser les faiblesses structurelles de caméras vidéos avec cette somme. Ah, mais j'oubliais, ça sert en fait à financer l'achat de Twitter. Donc, Twitter est plus important que la vie humaine des gogos qui achètent le FSD sur leur Tesla. Point de vue intéressant, M. Musk.

    Citation Envoyé par Stéphane le calme Voir le message
    La NHTSA enquête déjà sur des centaines de plaintes de conducteurs de Tesla, certaines décrivant des quasi-accidents et des préoccupations pour leur sécurité. Néanmoins, l'agence n'a pas encore pris de mesures contre Tesla, et l'enquête traîne en longueur. Quoi qu'il en soit, les analystes s'attendent à ce que les récentes découvertes sur le carambolage de San Francisco incitent la NHTSA à exiger une solution.
    Comme c'est étrange. L'agence américaine ne semble pas pressée de sanctionner un constructeur américain vu comme brillant. Cela me rappelle bizarrement la FAA avec le Boeing 737 MAX, et il a fallu plus de 350 morts pour qu'ils se décident à enfin agir, et uniquement après que le reste du monde l'ait fait. Combien de morts provoqués par le FSD, combien d'interdictions étrangères avant que la NHTSA se décide à agir ? Une nouvelle preuve comme quoi l'argent vaut largement plus que la vie humaine aux États-Unis.

    Je recherche NHTSA sur Google et voici l'extrait afiché :
    Our mission is to save lives, prevent injuries, and reduce economic costs due to road traffic crashes, through education, research, safety standards, and ...
    Je me marre.

  3. #223
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 931
    Points : 1 977
    Points
    1 977
    Par défaut
    Citation Envoyé par AoCannaille Voir le message
    Je pense que le message d'Uther relève la théorie pure; dans un monde parfait, chaque véhicule respecte un tampon suffisant pour que personne n'ai jamais à freiner sèchement.

    Si on prend l'exemple des trains, eux respectent ces distances de sécurités parfaites et j'ai n'ai aucun souvenir d'un train qui rentre dans un autre en France, tout trains confondus (TGV, TER, RER, Métro, Tram...).

    Le calcul du tampon est relativement facile à déterminer informatiquement, il dépend de la performance du freinage dans les conditions actuelles de circulation (pluie, revêtement du sol, usure des pneu, usure des plaquettes,.. on peut en mettre des paramètres dans un véhicule plein de capteurs), la vitesse et du temps de réaction (attendu d'être quasi nul dans le cadre d'une décision d'une IA).

    Dans le cadre de l'accident de Tesla qui nous occupe, on s'attend selon moi à ce qu'une IA "Full Self Driving" respecte cette distance de sécurité parfaite, ne serait-ce que pour respecter la loi. Ici, ce n'était visiblement pas le cas.
    Un train peut être amené à freiner très brusquement dans son canton pour ne pas rentrer dans un autre canton ou il y a déjà un train. Sur la route c'est bien différent d'une part parce que les cantons n'existent pas et d'autre part parce que si une voiture freine brusquement pour respecter ses distances de sécurité elle crée elle même un danger, d'où le tampon qui est consommé pour freiner en douceur. Sur le route, le tampon que constitue la distance de sécurité est forcément consommée en partie, c'est son rôle.

    Dans le cas décrit le FSD n'a pas "pas respecté les distances de sécurité", il a créé un danger en plantant pile.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  4. #224
    Membre actif
    Profil pro
    Chef de projet
    Inscrit en
    Octobre 2006
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Chef de projet

    Informations forums :
    Inscription : Octobre 2006
    Messages : 55
    Points : 222
    Points
    222
    Par défaut
    Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

    Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

    Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.

  5. #225
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 931
    Points : 1 977
    Points
    1 977
    Par défaut
    Citation Envoyé par Derf59 Voir le message
    Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage.

    Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.

    Imaginez qu'un pneu éclate sans raison sur votre voiture, vous vous seriez dirigé et arrêté de ce coté de la route.
    Et oui, sauf que le FSD l'a fait pour rien et l'a fait avec une brutalité que l'on aurait pas avec un pneu qui éclate, c'est donc bien de sa faute racine et exclusive.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  6. #226
    Membre extrêmement actif
    Profil pro
    Analyste cogniticien
    Inscrit en
    Novembre 2010
    Messages
    270
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Analyste cogniticien

    Informations forums :
    Inscription : Novembre 2010
    Messages : 270
    Points : 629
    Points
    629
    Par défaut
    Citation Envoyé par Derf59 Voir le message
    Ca me fait rire qu'on incrimine uniquement le FSD dans le carambolage. Oui le FSD a freiné sans raison apparente maintenant si il avait freiné pour une bonne raison, les autres conducteurs qui ne respectaient ni la vitesse ni les distances de sécurité seraient rentrés dans la voiture de la même manière.
    Donc vas-y, va sur une route express très fréquentée, où les voitures se suivent de près, puis pile, juste pour rire. Compte le nombre de voitures qui vont faire un carambolage. Ensuite, va voir les conducteurs et dis-leur que c'est entièrement de leur faute car cela ne serait pas arrivé s'ils auraient respectés les distances de sécurité et que tu n'y es pour rien car c'est ton droit le plus strict de piler en plein milieu d'une voie rapide.

    Ensuite, on ira te voir à l'hôpital, si jamais t'es encore en vie après t'être fait tabasser.

  7. #227
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par Fleur en plastique Voir le message
    pile
    À mon avis c'est illégal.
    En tout cas dans le code de le route Suisse c'est illégal :
    Puis-je freiner devant les conducteurs impatients?
    Conformément à cette réglementation, l’art. 12, al. 2 de l’ordonnance sur les règles de la circulation routière (OCR) interdit aux conducteurs de freiner et de s’arrêter brusquement, dès lors qu’un autre véhicule se trouve derrière et qu’il n’y a pas de situation d’urgence. Par freinage brusque non autorisé, les tribunaux entendent un ralentissement brutal et soudain du véhicule. Dans sa jurisprudence récente, le Tribunal fédéral a étendu le champ d’application de l’art. 12, al. 2 OCR à des situations de faible freinage sur l’autoroute. En effet, plus la vitesse est élevée et la distance entre les véhicules est réduite, plus un freinage même faible peut être dangereux pour les conducteurs qui suivent. En raison de ce danger potentiel, les juges de Lausanne partent du principe qu’au sens de l’art. 12, al. 2 OCR, on parle de freinage brusque lorsque qu’un conducteur ralentit de manière marquée en freinant sur une autoroute dès lors qu’un autre véhicule suit.
    Bon après tu peux toujours dire "j'ai aperçu un blaireau qui traversait la route", selon la zone géographique ça peut passer.
    Keith Flint 1969 - 2019

  8. #228
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 499
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 499
    Points : 5 687
    Points
    5 687
    Par défaut
    Moi je suis d'accord avec Derf59, le non respect des distances de sécurité est une calamité.
    Pour faire le tri il faudrait envoyer des milliers de Tesla avec l'autopilot mais sans conducteur aller piler sur les autoroutes, et ça ferait une petite sélection darwinienne.

    Sinon en moins violent : créer une IA à embarquer sur des drones ou des dirigeables pour verbaliser lourdement automatiquement tout ceux qui ne respectent pas les distances de sécurité, l'état y gagnerait de quoi renflouer le régime des retraites

    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  9. #229
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 443
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 443
    Points : 197 522
    Points
    197 522
    Par défaut Malgré un accident, un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du FSD
    Un conducteur de Tesla a déclaré qu'il était toujours un utilisateur fidèle du Full Self-Driving,
    même après avoir eu un accident alors qu'il utilisait Autopilot

    Le conducteur de Tesla, Dave Key, n'a pas tardé à défendre le logiciel d'assistance à la conduite du constructeur de voitures électriques, même des années après avoir eu un accident en utilisant Autopilot, selon un récent rapport du New York Times.

    L'ancien entrepreneur en logiciels de 69 ans a déclaré au quotidien que malgré l'accident, il pense que le logiciel Full Self-Driving, qui est encore en bêta, a le potentiel de sauver des vies, ajoutant que même les accidents mortels ne devraient pas nuire à la vision plus large des véhicules autonomes. « En tant que société, nous choisissons la voie pour sauver le plus de vies », a-t-il déclaré au New York Times.


    Le 29 mai 2018, la Tesla Model S 2015 de Dave Key le ramenait chez le dentiste en mode Autopilot. C'était un itinéraire que Key avait suivi d'innombrables fois auparavant : une autoroute à deux voies menant aux collines au-dessus de Laguna Beach, en Californie. Mais lors de ce voyage, alors que Key était distrait, la voiture a dérivé hors de sa voie et a percuté l'arrière d'un S.U.V. de police garé, faisant tourner la voiture et poussant le S.U.V. jusqu'au trottoir. Personne n'a été blessé, mais la Tesla était en piteux état.

    Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas », a-t-il déclaré. Pendant des années, l'intelligence artificielle de Tesla a eu du mal à séparer les objets immobiles de l'arrière-plan. Plutôt que de se sentir frustré que l'ordinateur n'ait pas compris un problème aussi élémentaire, Key s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.

    En clair, c'était un problème auquel d'autres utilisateurs d'Autopilot ont été confrontés.

    L'année dernière, la National Highway and Traffic Safety Administration (NHTSA) a mis à niveau son enquête sur plus d'une douzaine de véhicules Tesla qui se sont écrasés contre des véhicules d'urgence alors qu'ils utilisaient Autopilot. L'agence a déclaré que la fonction d'assistance au conducteur avait du mal à identifier les véhicules en stationnement.

    Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD, ajoutant que le logiciel s'est amélioré pour surveiller l'attention du conducteur sur la route grâce à une fonction de rappel qui suit la pression sur le volant et le mouvement des yeux du conducteur.

    Citation Envoyé par New York Times
    Pendant que nous roulions, Key a comparé FSD à l'Autopilot qui était sur sa Tesla de 2015. Autopilot, a-t-il dit, était comme un régulateur de vitesse sophistiqué : vitesse, direction, évitement des collisions. Bien que dans son cas, il ait dit : « Je suppose que cela n'a pas vraiment permis d'éviter les accidents ». Il avait été bien plus impressionné par le FSD. Il était capable de gérer à peu près toutes les situations qu'il lui présentait. « Mon seul vrai reproche est qu'il ne sélectionne pas toujours la voie que je choisirais ».

    Au bout d'une minute, la voiture avertit Key de garder les mains sur le volant et les yeux sur la route. « Tesla est maintenant une sorte de nounou à ce sujet », s'est-il plaint. Si Autopilot était autrefois dangereusement permissif envers les conducteurs inattentifs – leur permettant même de s'endormir derrière le volant – cette faille, comme le bogue de l'objet stationnaire, avait été corrigée. « Entre le volant et le suivi des yeux, c'est juste un problème résolu », a déclaré Key(...).

    Key avait apporté des notes, qui tenaient sur quatre pages, qu'il avait rédigées pour notre entretien, énumérant les faits sur les accidents, organisés en sous-titres tels que Tesla Full Self-Driving Technology (Discussion). C'est le genre d'homme qui se promène avec une batterie d'opinions bien formées sur les sujets les plus importants de la vie - ordinateurs, logiciels, exercice, argent - et une volonté de les partager. Il tenait particulièrement à ce que je comprenne que l'Autopilot et le FSD sauvaient des vies : « les données montrent que leur taux d'accidents pendant la bêta est bien inférieur à celui des autres voitures », lit-on dans ses notes. « Ralentir le [développement de la] bêta FSD entraînera plus d'accidents et de pertes de vie sur la base de données statistiques solides.

    Des accidents comme le sien – et même les plus mortels – sont malheureux, a-t-il soutenu, mais ils ne pouvaient pas détourner la société de l'objectif plus large d'une adoption généralisée des véhicules autonomes. Key a fait une analogie avec les vaccins contre le coronavirus, qui ont empêché des centaines de milliers de décès, mais ont également causé de rares décès et blessures dus à des effets indésirables. « En tant que société », a-t-il conclu, « nous choisissons la voie pour sauver le plus de vies ».
    Depuis la sortie d'Autopilot en octobre 2015, Musk a encouragé les conducteurs à le considérer comme plus avancé qu'il ne l'était, déclarant en janvier 2016 qu'il était « probablement meilleur » qu'un conducteur humain. En novembre de la même année, la société a publié une vidéo d'une Tesla naviguant sur les routes de la Bay Area avec l'indication suivante : « La personne à la place du conducteur n'est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule ». Musk a également rejeté le nom « Copilot » en faveur « d'Autopilot ».


    La vidéo datant de 2016 faisant la promotion de la conduite autonome de Tesla

    Les petits caractères indiquaient clairement que la technologie était uniquement destinée à l'assistance au conducteur, mais ce message n'a reçu qu'une fraction de l'attention des annonces de Musk. Un grand nombre de conducteurs semblaient vraiment confus quant aux capacités d'Autopilot (d'ailleurs, Tesla a également refusé de divulguer que la voiture de la vidéo de 2016 s'est écrasée dans le parking de l'entreprise, ce qui a été souligné par un ingénieur de Tesla qui a reconnu que la vidéo de 2016 faisant la promo de la conduite autonome du véhicule était truquée).

    Tesla fait face à plusieurs plaintes

    Malheureusement pour Musk, le court terme passe avant tout et son entreprise fait face à quelques mois difficiles. En février, le premier procès contre Tesla pour un accident impliquant Autopilot sera jugé. Quatre autres suivront coup sur coup. Donald Slavik, qui représentera les plaignants dans pas moins de trois de ces affaires, affirme qu'un constructeur automobile normal aurait déjà choisi de régler l'affaire à l'amiable : « Ils considèrent cela comme un coût pour faire des affaires ». Musk a juré de se battre devant les tribunaux, quels que soient les dangers que cela pourrait présenter pour Tesla. « Les dollars peuvent vite s'additionner », a déclaré Slavik, « surtout s'il y a des dommages-intérêts punitifs ».

    Dans l'une des plaintes qu'il a déposées contre Tesla, Slavik a répertorié les principaux accidents impliquant Autopilot de A à WW. En Chine, une Tesla a percuté une balayeuse. En Floride, une Tesla a heurté un semi-remorque sur une autoroute. Lors d'une averse dans l'Indiana, une Tesla Model 3 a quitté la route et s'est enflammée. Dans les Florida Keys, une Model S a traversé une intersection et a tué un piéton. À New York, une Model Y a heurté un homme qui changeait son pneu sur l'accotement de la Long Island Expressway. Dans le Montana, une Tesla a percuté de manière inattendue une barrière d'autoroute. Puis la même chose s'est produite à Dallas, à Mountain View et à San Jose.

    En fait, les nombreuses revendications des poursuites en cours reviennent à un seul thème : Tesla a constamment gonflé les attentes des consommateurs et minimisé les dangers encourus. Les voitures n'étaient pas suffisamment surveillées par le conducteur, car Musk ne voulait pas que les conducteurs pensent que la voiture avait besoin d'une surveillance humaine.

    Pour mémoire, en avril 2019, Musk a déclaré : « Si vous avez un système dont la fiabilité est égale ou inférieure au niveau humain, alors la surveillance du conducteur a du sens. Mais si votre système est nettement meilleur, plus fiable qu'un humain, alors la surveillance n'aide pas beaucoup ».

    Les conducteurs n'ont pas été avertis des problèmes de freinage automatique ou des « changements de voie non commandés ». La société a fini par admettre les limites de la technologie dans son manuel d'utilisation, mais a publié des vidéos virales d'une Tesla conduisant sur un itinéraire compliqué sans intervention humaine.

    Nom : tesla.png
Affichages : 2716
Taille : 659,2 Ko

    « La raison de votre accident ou la raison de votre incident retombe toujours sur vous »

    Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas, mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite : « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule : tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».

    Comme pour illustrer ces propos, pendant qu'ils [Key et le journaliste] roulaient et que sa Tesla a raté un virage à gauche, Key a rapidement diagnostiqué le problème : si seulement le système avait été mis à niveau vers FSD 10.69, a-t-il soutenu, la voiture aurait sûrement réussi le virage en toute sécurité.

    Malheureusement pour Musk, tous les propriétaires de Tesla ne sont pas comme Dave Key. Les plaignants dans les procès Autopilot pourraient convenir que l'IA s'améliore, mais seulement sur le dos des premiers utilisateurs et des passants qui pourraient être tués en cours de route.

    En ligne, il y a une bataille entre les factions pro-Musk et anti-Musk à propos d'Autopilot et du FSD.

    Key est loin d'être le seul conducteur Tesla à signaler des problèmes avec le logiciel, mais à continuer de soutenir la vision d'Elon Musk pour l'entreprise. Par exemple, un autre quotidien a précédemment rapporté qu'un conducteur de Tesla avait effectué un trajet sur 6 392 miles (environ 10 286 kilomètres) en utilisant principalement Autopilot et FSD et continuait de considérer le programme comme une « bouée de sauvetage » malgré la rencontre de bogues dans le logiciel.

    Source : The New York Times Magazine

    Et vous ?

    Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
    « La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #230
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
    J'ai l'impression qu'il se dit "le logiciel est en version béta, il est donc normal qu'il déconne un peu".
    Je comprend ce point de vue.
    Keith Flint 1969 - 2019

  11. #231
    Membre émérite
    Homme Profil pro
    Ingénieur en génie logiciel
    Inscrit en
    Juin 2012
    Messages
    856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur en génie logiciel
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2012
    Messages : 856
    Points : 2 442
    Points
    2 442
    Par défaut
    jouer avec la vie des gens ne devrait pas être toléré

    difficile de comprendre ses propos, il changera surement d'avis la journée que ses enfants, femme, famille mourront à cause d'un tel système...

    il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé..... et qu'une mauvaise image est mis dans la page....... mais de bug qui cause des accidents dans le monde réel....

  12. #232
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par marc.collin Voir le message
    il n'est pas question ici d'un bug qui fait en sorte que les données sont effacé.....
    Ouais mais les utilisateurs de voiture Tesla installent le logiciel en connaissance de cause.
    Ils doivent se dire "le logiciel est en version béta, si je l'utilise un accident peut avoir lieu".
    Keith Flint 1969 - 2019

  13. #233
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 424
    Points
    3 424
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Key, un ancien entrepreneur en logiciels de 69 ans, a opté pour une perspective impartiale sur son propre accident, revêtant sa casquette d'ingénieur : « Le problème avec les objets fixes - je suis désolé, cela semble stupide - c'est qu'ils ne bougent pas »
    Et après on s'étonne que les gens se foutent de nous.
    M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas. Merci pour cette sagesse infinie.
    s'est rassuré en apprenant qu'il y avait une raison derrière l'accident : une limitation logicielle connue, plutôt qu'une sorte d'événement de cygne noir.
    M. Key était rassuré parce que Tesla savait qu'elle risquait de tuer des gens parce qu'elle connait les limites de son logiciel.
    Mais il ne s'inquiète pas que la société a identifié un risque de tuer mais a décidé de le mettre "en prod" malgré tout sans prévenir le bêta testeur.
    Pourtant, depuis l'accident, Key a acheté trois autres Teslas et continue d'utiliser à la fois Autopilot et le FSD
    Il en a crashé 2 autres ou il les collectionne? C'est un peu plus cher qu'une majorette ces engins.
    Le client idéal de Musk est quelqu'un comme Key, prêt à accepter le blâme quand quelque chose ne va pas mais possédant une foi presque illimitée dans la prochaine mise à jour. Dans une déposition, un ingénieur de Tesla l'a dit de manière tout à fait explicite*: « Nous voulons faire savoir au client que, tout d'abord, vous devez avoir confiance en votre véhicule*: tout fonctionne comme il se doit. Ensuite, la raison de votre accident ou la raison de votre incident retombe toujours sur vous ».
    Donc Musk lui meme se définit comme gourou, et les gens le suivent malgré tout.
    Comprenez-vous la perspective de Dave Key ? Partagez-vous son point de vue ? Dans quelle mesure ?
    « La raison de votre accident ou la raison de votre incident retombe toujours sur vous », êtes-vous d'accord avec les propos tenus par cet ingénieur de Tesla ? Pourquoi ?
    On ne parle pas d'un logiciel inoffensif dont les bugs ne font que perdre des heures aux utilisateurs, on parle d'un logiciel qui peut tuer des gens qui ne l'utilisent pas.
    On parle d'un logiciel qui est mis sur les routes alors que son développeur sait qu'il risque de tuer des gens mais rassure les ingénieurs mentaux en disant "tkt, la prochaine version diminue la léthalité de 0.001% en étant capable de faire la différence entre une ambulance et un fond d'écran"
    Oui je suis d'accord avec l'avis de cet ingénieur mais je ne suis pas d'accord que l'argument soit utilisé après que son employeur ait dit que le système est plus fiable qu'un conducteur humain.

    Le cynisme de certains ingénieur me fait sincèrement peur.

  14. #234
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par totozor Voir le message
    M. Key a fait des études supérieures pour déclarer que les objets fixes ne bougent pas.
    Si ça se trouve il a une connaissance profonde des algorithmes de détection d'objet et il sait que c'est cette chose précise est compliqué à gérer.
    Keith Flint 1969 - 2019

  15. #235
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 564
    Points : 7 285
    Points
    7 285
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Si ça se trouve il a une connaissance profonde des algorithmes de détection d'objet et il sait que c'est cette chose précise est compliqué à gérer.
    Mouais, ou alors le gars y connaît que dalle... Il a plusieurs Tesla, fait un accident avec le FSD et continue de croire en la communication de Tesla... Je dirais plutôt que ce type est la définition même du fanboy. En plus, il est "entrepreneur en logiciels". Rien ne prouve donc qu'il sait de quoi il parle. Il peut juste être bon en management et avoir fait travailler des devs toute sa carrière sans jamais avoir touché ne serait qu'une spécification technique ou une ligne de code.

    Si un objet fixe est si difficile à détecter pour une caméra, il suffirait par exemple de rajouter des capteurs comme des sonars. Ah, on me dit dans l'oreillette que Tesla a décidé en 2021 de les virer des modèles 3 et Y pour ne mettre que des caméras, pour des histoires de petits sous!
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  16. #236
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur l'Autopilot de Tesla
    Des emails révèlent qu'Elon Musk a supervisé la mise en scène de la vidéo sur la technologie de conduite autonome de Tesla
    visant à faire croire qu'une voiture Tesla pouvait se conduire toute seule

    Elon Musk, PDG de Tesla, aurait supervisé une vidéo de 2016 qui exagérait les capacités de l'Autopilot, le système d'aide à la conduite du constructeur automobile. Des courriels de l'époque révèlent que Musk a même dicté le titre d'ouverture de la vidéo qui prétendait que la voiture se conduisait toute seule. Il aurait dit aux ingénieurs qu'"ils n'étaient pas tenus de coder en dur toutes les étapes de la fonction de conduite autonome juste pour les besoins de ladite vidéo". La déposition d'un ingénieur a révélé la semaine dernière que la voiture ne se conduisait pas toute seule et qu'elle suivait plutôt un itinéraire prédéterminé sur une carte haute définition.

    S'il subsistait un doute sur le fait que Musk savait que la vidéo sur la démonstration de l'Autopilot de Tesla en 2016 était une mise en scène, il vient peut-être d'être dissipé. Bloomberg dit avoir eu accès à des emails internes de Tesla qui révèlent que Musk a lui-même supervisé la supercherie. « Je veux juste être absolument clair sur le fait que la priorité absolue de tout le monde est de réaliser une incroyable démonstration de la conduite de l'Autopilot. Vu qu'il s'agit d'une démo, il n'y a pas de problème à coder en dur une partie de celle-ci, puisque nous la compléterons avec du code de production plus tard dans une mise à jour OTA », a dit Musk dans un courriel.

    Musk a publié un billet de blogue sur le site Web de Tesla la veille de la diffusion de la vidéo, le 19 octobre. Dedans, il indiquait que toutes les voitures Tesla seraient livrées à partir de ce jour avec le matériel nécessaire à une capacité de conduite autonome complète. Dans les courriels qu'il a envoyés à son personnel ce mois-là, il a souligné l'importance d'une démonstration pour promouvoir le système. Musk n'a pas vu d'inconvénient à cette stratégie : « je vais dire au monde que c'est ce que la voiture *va* pouvoir faire, et non ce qu'elle peut le faire dès la réception », a-t-il écrit. Malgré ces propos, la vidéo n'a pas fait preuve de clarté lorsqu'elle a été publiée.


    Les emails internes montrent que Musk lui-même a demandé à l'équipe Autopilot d'ouvrir la vidéo avec les mots : « la personne sur le siège du conducteur n'est là que pour des raisons juridiques. Elle ne fait rien du tout. La voiture se conduit toute seule ». Puis, lorsque Musk a fait la promotion de la vidéo sur Twitter, il a écrit : « Tesla se conduit toute seule (sans aucune intervention humaine) à travers les rues urbaines, l'autoroute et les rues, puis trouve une place de stationnement ». Et lorsque la technologie a été mise à la disposition des conducteurs de Tesla trois ans plus tard, le résultat a été plutôt décevant, car le système a eu du mal à naviguer tout seul.

    Ces nouvelles révélations ont suscité un tollé sur la toile, plusieurs internautes reprochant à Tesla de les avoir menés en bateau depuis au moins 2016. Tesla savait que ses voitures ne pouvaient pas se conduire toutes seules, mais a pourtant présenté les choses comme telles. Selon ses propres employés, Tesla aurait dû le révéler afin de ne pas induire les clients en erreur en leur faisant croire que sa technologie était plus avancée qu'elle ne l'était. « Tesla aurait également pu mentionner que, lors du tournage de la vidéo, le Model X s'est écrasé contre une clôture », a déclaré Ashok Elluswamy, directeur du logiciel Autopilot chez Tesla, qui a donné des détails sur la vidéo.

    La déposition d'Elluswamy a été prise comme preuve dans un procès contre Tesla pour un accident mortel de 2018 impliquant l'ancien ingénieur d'Apple Walter Huang. Le procès allègue que les erreurs de l'Autopilot, et la confiance mal placée de Huang dans les capacités du système ont causé l'accident. Des agences fédérales et d'État, ainsi que des clients ont également reproché à Tesla de promouvoir à tort les capacités de ses systèmes d'aide à la conduite l'Autopilot et le Full Self-Driving (qui n'est pas du tout ce que son nom semble vouloir indiquer). En fait, Tesla conseille à ses conducteurs de rester vigilants et concentrés lorsque les systèmes sont activés.

    En juillet dernier, le département des véhicules à moteur (DMV) de Californie a accusé Tesla de faire de la publicité mensongère pour ses systèmes, ce qu'une poignée de clients de Tesla ont également allégué dans un procès intenté en septembre contre la société. En outre, la National Highway Traffic Safety Administration des États-Unis enquête activement sur deux accidents liés au système Autopilot. Tesla pourrait également faire l'objet d'une enquête criminelle de la part du ministère américain de la Justice concernant ses affirmations sur la conduite autonome. Ces déclarations, et même les noms Autopilot et Full Self-Driving, sont considérées comme trompeuses.

    En 2019, les analystes ont découvert que les affirmations répétées de l'entreprise selon lesquelles l'Autopilot réduisait les accidents d'environ 40 % étaient fausses, et qu'en fait, le système pourrait avoir augmenté les accidents de 59 %. La même année, la NHTSA a dû dire à Tesla qu'il trompait les clients en affirmant que l'agence avait qualifié la Tesla Model 3 de voiture la plus sûre qu'elle ait jamais testée. Face aux allégations, Tesla s'est défendu dans une motion de novembre visant à rejeter la plainte de clients qui le poursuivent pour marketing mensonger. Il a déclaré : « notre incapacité à réaliser un objectif ambitieux à long terme n'est pas une fraude ».

    Dans une conversation sur Twitter Spaces en décembre, l'entreprise a déclaré que son avantage sur les autres constructeurs automobiles, alors qu'elle vise à résoudre le problème de la conduite autonome complète, est que "la voiture Tesla est évolutive vers l'autonomie, ce qu'aucun autre constructeur automobile ne peut faire". Ce qui reste à prouver. Dans des conditions réelles, les performances de l'Autopilot et de sa version améliorée, le Full Self-Driving, restent médiocres. La NHTSA a ouvert plusieurs enquêtes pour déterminer si ces systèmes sont sûrs, notamment à la suite de centaines de signalements de comportements de freinage fantôme.

    Une autre de la NHTSA cherche à savoir si les voitures Tesla sont capables de détecter la présence de motocyclistes après qu'au moins deux motocyclistes ont été tués après avoir été percutés par des Teslas. L'agence enquête également sur la propension des voitures Tesla à percuter des véhicules d'urgence. La société peut également faire face à des poursuites pénales. Le fait de tromper intentionnellement ses investisseurs ou ses clients reste un crime aux États-Unis, et les procureurs fédéraux ont cherché à savoir si les nombreuses affirmations de Tesla et de Musk concernant ces systèmes d'aide à la conduite répondaient à cette exigence.

    Le témoignage d'Elluswamy n'aide sûrement pas Tesla. Et l'implication directe de Musk dans la vidéo et la promotion subséquente de la capacité des véhicules Tesla à se conduire eux-mêmes surviennent à un moment où la réputation et la fiabilité du dirigeant sont de plus en plus remises en cause. En plus de ses distractions sur Twitter, Musk a également promis, lors de la conférence téléphonique avec les investisseurs de Tesla au le troisième trimestre, que la société connaîtrait "une fin d'année épique", mais Tesla a fini par manquer les estimations concernant les livraisons du quatrième trimestre. En plus de cela, l'action de la société a chuté de 65 % en 2022.

    Musk est jugé actuellement aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla. Le jury est chargé de déterminer si le tweet a trompé ou non les investisseurs. En effet, le rachat ne s'est jamais concrétisé, mais à l'époque, le tweet de Musk avait alimenté une hausse du prix de l'action Tesla qui s'est brusquement terminée une semaine plus tard, lorsqu'il est apparu qu'il n'avait pas les fonds nécessaires pour un rachat. Peu après, la valeur des actions a grimpé en flèche, ce qui a fait de Musk la personne la plus riche du monde jusqu'à ce qu'il rachète Twitter à la fin du mois d'octobre 2022.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Selon vous, quelles sanctions pourraient encourir Musk et Tesla dans cette affaire ?
    Que pensez-vous des controverses entourant Musk ? Nuit-il à l'image de ses entreprises ?
    Selon vous, Musk a-t-il fait son temps à la tête de Tesla ? Doit-il passer le flambeau à un nouveau PDG ?
    Quelles comparaisons faites-vous entre le système Autopilot de Tesla et les systèmes concurrents ?

    Voir aussi

    Elon Musk est jugé aux États-Unis pour un tweet de 2018 dans lequel il affirme avoir trouvé les fonds nécessaires pour privatiser Tesla, il perdra le procès si le tweet est reconnu comme "trompeur"

    Elon Musk : « Ce n'est pas parce que je tweete quelque chose que les gens y croient », dans un procès suite à un de ses tweets de 2018 qui aurait coûté des millions de dollars aux investisseurs Tesla

    Les investisseurs concluent que Tesla est un constructeur automobile et non une entreprise technologique, l'achat de Twitter par Elon Musk a précipité la chute de l'action Tesla qui a baissé de 71 %
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #237
    Membre régulier
    Homme Profil pro
    Ergonome
    Inscrit en
    Novembre 2019
    Messages
    28
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Ergonome

    Informations forums :
    Inscription : Novembre 2019
    Messages : 28
    Points : 102
    Points
    102
    Par défaut Et en même temps...
    La problématique exposée ici est non pas compliquée, mais complexe.

    [Note : compliqué, c'est comme un mécanisme d'horloge, il y a plein de petits roues dentées, c'est compliqué mais ça se décompose toujours en éléments simples... Complexe, c'est comme un plat de spaghettis : allez prévoir la position de chaque spaghetti... il y a une part de non-maîtrisable]

    Et donc il y a ici deux points de vue tout à fait respectables tous deux et cependant contradictoires, qui s'expriment :

    * Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.

    * Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.

    Le problème c'est que quand il y a un accident à cause d'une erreur ou d'une limite de la technologie, c'est toujours un de trop. Et la victime se fiche des statistiques : c'est LUI qui est blessé... ou mort. Les autres blessés ou morts qui ont été évités, ce n'est pas son problème.
    Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
    Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.

    Donc sans être un fan d'Elon Musk (j'en suis très très loin, je vous assure) ce qu'il fait avec Tesla est remarquable.
    Il faudrait seulement un peu d'humilité dans tout cela, pour communiquer de façon responsable sur le chemin qui reste à parcourir et que la vigilance du conducteur reste un élément de sécurité complémentaire et nécessaire.

  18. #238
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 424
    Points
    3 424
    Par défaut
    Citation Envoyé par jbrosset Voir le message
    * Il est en effet inadmissible de disposer d'un logiciel dont on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, sans en informer leur utilisateur. Il faut lui demander la vigilance, et ne pas l'illusionner d'un système totalement autonome.
    * Et en même temps, le point de vue statistique ne peut pas être balayé non plus d'un revers de main : la technologie devient plus fiable que l'humain. Probablement dès aujourd'hui, et sûrement dans un avenir assez proche. Et donc, statistiquement, il y a moins d'accidents avec le logiciel qu'avec l'humain.
    Je propose un mix des deux : il y a moins d'accidents avec le logiciel qu'avec l'humain, mais on connaît des bugs, des limitations, qui peuvent entrainer des accidents graves, on en informer leur utilisateur. et on lui demander la vigilance, et ne pas l'illusionner

    Citation Envoyé par jbrosset Voir le message
    Lorsque le conducteur est humain, on est fataliste : oui, il a fait une erreur, il n'a pas vu, il a été distrait.
    Lorsque le conducteur est un logiciel, on sait qu'il ne peut pas être distrait, alors on est impitoyable. Et en effet, il n'est jamais distrait, mais son intelligence est limitée, il peut se tromper.
    Je ne suis pas tout à fait d'accord, j'ai passé des heures en vélo sans respecter le code de la route (parfois par survie) dans une circulation hostile (Toulouse) et je n'ai eu que 2 accidents qui auraient pu être graves.
    Pourquoi?
    Je voit le chauffeur et je sais anticiper ce qu'il va/pourrait faire et donc je sais anticiper et y réagir. (D'ailleurs dans les deux cas, je ne voyais pas le chauffeur, une fois derrière la voiture, une fois son visage était caché par une planche).
    Le pilote automatique peut mettre un clignotant, allumer ses feu de freinage avant de freiner mais ne pourra jamais me signaler qu'il m'a vu ou non, s'il veut passer devant/derrière/à travers moi. etc.

    J'ai vu des chauffeurs qui ne m'avaient pas vu et qui auraient pu m'écraser, j'ai réagi en fonction. Si une IA ne me voit pas et ne donne pas de signe de ce qu'elle va faire, je partais directement aux urgences ou à la morgue.
    Avec une IA plus chauffeur, il voit qu'elle m'a identifié ou pas, il voit qu'elle compte me passer dessus et dans 95% des cas je lit son visage et je me sauve la vie s'il réagit trop tard.

    Le truc est que peut être que le FSD est moins dangereux que le chauffeur moyen MAIS en tant que victime potentielle des deux, je sais éviter un accident avec un chauffeur et pas avec un FSD. Et je refuse d'être la statistique involontaire et impuissante du FSD.

  19. #239
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Tesla rappelle 360 000 véhicules et affirme que la version bêta du FSD peut provoquer des accidents
    Tesla rappelle plus de 360 000 véhicules et affirme que la version bêta du Full Self-Driving peut provoquer des accidents
    le logiciel de Tesla agit parfois de manière dangereuse aux intersections

    Tesla a annoncé cette semaine qu'elle rappelait certains véhicules équipés du logiciel Full Self-Driving Beta (FSD Beta) ou ceux en attente d'installation. Le rappel, qui a été publié sur le site Web de la National Highway Traffic Safety Administration (NHTSA), touche jusqu'à 362 758 véhicules équipés du logiciel. Tesla fournira une mise à jour logicielle automatique (over-the-air) aux voitures pour résoudre les problèmes. L'avis de rappel explique que les problèmes de sécurité du logiciel de Tesla peuvent entrainer des comportements dangereux aux intersections, ce qui peut causer des accidents. Le FSD peut également avoir un problème avec les limites de vitesse.

    Les véhicules Tesla sont équipés de série d'un système d'aide à la conduite baptisé Autopilot. Pour 15 000 dollars de plus, les propriétaires peuvent acheter le système avancé Full Self-Driving (FSD), une fonction que le PDG Elon Musk promet depuis des années et qui offrira un jour des capacités de conduite autonome complètes. En attendant, il est important de garder à l'esprit que les véhicules Tesla ne sont pas des véhicules à conduite autonome et que le FSD est toujours en version bêta. Le FSD comprend un certain nombre de fonctions de conduite automatisée qui nécessitent que le conducteur soit prêt à prendre le contrôle à tout moment.

    Il comprend la fonction de stationnement Summon, ainsi que Navigate on Autopilot, un système de de guidage actif qui dirige une voiture d'une bretelle d'autoroute à une bretelle de sortie, y compris les échangeurs et les changements de voie. Le système est également censé gérer la direction dans les rues de la ville et reconnaître et réagir aux feux de circulation et aux panneaux d'arrêt. Mais selon l'avis de rappel, le système comporte de graves problèmes de sécurité qui peuvent mettre la vie des conducteurs en danger. Le rappel concerne un total de 362 758 véhicules, dont certains Model 3, Model X, Model Y et Model S fabriqués entre 2016 et 2023.



    « La version bêta du FSD peut provoquer des accidents en permettant aux véhicules concernés de : agir de manière dangereuse aux intersections, par exemple en traversant une intersection alors qu'ils sont dans une voie réservée aux virages, en s'engageant dans une intersection contrôlée par un panneau d'arrêt sans s'arrêter complètement, ou en s'engageant dans une intersection pendant un feu de circulation jaune fixe sans prendre les précautions nécessaires. Le système peut également avoir des difficultés à répondre de manière appropriée aux changements des limites de vitesse affichées », selon l'avis publié sur le site Web de la NHTSA.

    L'avis publié par la NHTSA comprend une chronologie des événements ayant conduit au rappel. Le problème a été découvert lors de l'analyse technique et des tests du système par la NHTSA. La NHTSA a déclaré avoir constaté que, dans certaines situations, la fonction Autosteer on City Streets du constructeur de véhicules électriques entrainait un risque "déraisonnable" pour la sécurité des véhicules à moteur en raison d'un respect insuffisant des règles de sécurité routière. « Comme l'exige la loi et après des discussions avec la NHTSA, Tesla a lancé un rappel pour réparer ces défauts », a déclaré l'agence dans un communiqué envoyé aux médias.

    Tesla a rencontré la NHTSA "à plusieurs reprises" au cours des jours suivants pour discuter des préoccupations de l'agence et des améliorations proposées par Tesla en réponse. « La NHTSA continuera à surveiller l'efficacité des mesures de rappel. Ce rappel cherche à répondre à un ensemble spécifique de préoccupations identifiées par l'agence », a déclaré la NHTSA. L'agence a toutefois ajouté que le rappel n'aborde pas toute la portée de l'enquête EA22-002 de la NHTSA sur l'Autopilot de Tesla et les systèmes de véhicules associés. Ainsi, le communiqué du responsable américain de la sécurité routière indique que cette enquête reste ouverte et active.

    Musk et les adeptes de Tesla se sont opposés à l'utilisation du terme "rappel" pour décrire les défauts de sécurité ou les problèmes qui peuvent être corrigés avec une mise à jour logicielle livrée sur Internet sans fil. Jeudi, il a écrit sur Twitter : « le mot "rappel" pour une mise à jour logicielle automatique est anachronique et tout simplement faux ». Tesla permet à des milliers de conducteurs d'essayer des fonctions d'aide à la conduite nouvelles et inachevées sur les routes publiques des États-Unis par le biais du FSD. Il ne rend pas les voitures Tesla autonomes ni sûres à conduire sans un humain au volant prêt à freiner ou à braquer à tout moment.

    Seuls les propriétaires de Tesla qui ont souscrit au système d'aide à la conduite FSD haut de gamme de l'entreprise dans leur voiture peuvent participer au programme FSD Beta. Les propriétaires e Tesla doivent obtenir un score élevé en matière de sécurité du conducteur, déterminé par le logiciel Tesla qui surveille leurs habitudes de conduite, et le conserver pour avoir accès au FSD Beta. La version bêta du FSD peut être résumée comme une foule de nouvelles fonctionnalités qui ne sont pas encore entièrement déboguées. Le logiciel est en version bêta perpétuelle depuis sa sortie sortie. La principale attraction est "l'autoguidage dans les rues de la ville".

    Cette fonction permet à une Tesla de naviguer automatiquement, bien qu'imparfaitement, dans des environnements urbains complexes. Tesla n'a jamais révélé combien de personnes achètent ou souscrivent à l'option premium FSD. Lors du dernier appel pour l'annonce des résultats de la société, Musk a déclaré : « à l'heure actuelle, nous avons déployé la version bêta du Full Self-Driving - pour les rues des villes - à environ 400 000 clients en Amérique du Nord. Il s'agit d'une étape importante pour l'autonomie, car la version bêta du FSD est le seul moyen pour un consommateur de tester réellement la dernière autonomie alimentée par l'IA ».

    Le FSD - malgré son nom et les promesses de Musk concernant ses capacités - fait l'objet de controverses, car il diffère de ce que prétend Musk sur les réseaux sociaux. Il a également attiré l'attention des régulateurs. En janvier, Tesla a révélé que le ministère américain de la Justice avait demandé des documents relatifs à Autopilot et au FSD. La NHTSA et les communications de Tesla affirment que le système est quelque chose de beaucoup plus simple : "une fonction d'assistance au conducteur de niveau 2 qui peut fournir une assistance au conducteur en matière de direction et de freinage/accélération dans certaines limites d'exploitation".

    Le rapport de rappel de sécurité note que "le conducteur est responsable du fonctionnement du véhicule lorsque la fonction est activée et doit constamment superviser la fonction et intervenir (par exemple, diriger, freiner ou accélérer) si nécessaire pour maintenir un fonctionnement sûr du véhicule". Cela montre encore une fois que Tesla est dans une grande contradiction et que le nom de ses produits constitue une publicité mensongère. L'entreprise a déjà été condamnée dans certaines juridictions pour marketing mensonger. Les actions de Tesla ont chuté d'un peu plus de 1 % à l'annonce de la nouvelle, avant de se redresser rapidement.

    Source : L'avis de rappel de la NHTSA des États-Unis (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de problèmes détecter par la NHTSA sur le FSD ?
    Que pensez-vous de l'Autopilot et du FSD ? Ces logiciels améliorent-ils la conduite humaine ?
    Que dites-vous du FSD qui est toujours en version bêta ? Doit-on laisser les conducteurs tester un tel logiciel sur les routes publiques ?

    Voir aussi

    Tesla rappelle les voitures présentant des défaillances de l'eMMC, et qualifie la pièce d'« article d'usure », ce qui n'est pas mentionné spécifiquement dans le manuel du propriétaire

    Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

    Les États-Unis demandent à Tesla de rappeler 158 000 véhicules pour cause de panne d'écran tactile, le défaut de sécurité concerne les anciens véhicules Models S et X
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  20. #240
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 931
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 931
    Points : 1 977
    Points
    1 977
    Par défaut
    Ce qui était évident hier devient un fait reconnu aujourd'hui.

    Faire tester un engin qui a entre 1 et 3 méga joules d’énergie cinétique par de simples clients c'est en plus totalement hallucinant. (plusieurs millier de fois l'énergie de la balle d'un AK47)

    Un système qui conduit à notre place nous enlève évidement toute attention, fatalement le conducteur qui est sensé garder son attention n'en a plus du tout dans de telles conditions ; Il n'y a pas d'intermédiaire possible entre un conducteur 100% au commandes et une voiture 100% autonome à part avec des pilotes d'essai et les protocoles qui vont bien.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 09h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 09h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 21h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 14h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 03h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo