IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #401
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 260
    Points
    2 260
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    La responsabilité des conducteurs : qui devrait être tenu responsable en cas d’accident impliquant un système de conduite automatisée comme l’Autopilot de Tesla ? Le conducteur, le constructeur automobile ou les deux ?
    Ceclui qui a décidé le comportement de l'automatisme => le constructeur
    Et si le constructeur a laissé la main au conducteur pour régler certains comportements => les 2

    Citation Envoyé par Stéphane le calme Voir le message
    Formation des conducteurs : comment pouvons-nous mieux former les conducteurs à l’utilisation des systèmes d’assistance à la conduite ? Quels sont les éléments essentiels à inclure dans la formation ?
    Si la voiture est autonome il y a rien ni personne à former, le problème chez Tesla aujourd'hui c'est d'utiliser les conducteurs clients comme testeurs, ce qui devrait être la tache de pilotes professionnels attentifs et conscients.
    Citation Envoyé par Stéphane le calme Voir le message
    Rôle des régulateurs : quel devrait être le rôle des organismes de réglementation dans la supervision des technologies de conduite automatisée ? Comment peuvent-ils assurer la sécurité tout en favorisant l’innovation ?
    Comme en aéronautique ou rien est mis en service sans avoir été testé et validé, les autorités de régulations devraient empêcher la mise sur route de trucs bricolés mis à jours OTA vite fait en cas de soucis et laissé dans les mains de clients qu ne sont pas testeurs.
    Le régulateur devrait aussi imposer des boites noirs comme en aéronautique avec des protocoles d'enregistrements bien défini pour empêcher l'OTA en cas de pépin.

  2. #402
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par petitours Voir le message
    Si la voiture est autonome il y a rien ni personne à former, le problème chez Tesla aujourd'hui c'est d'utiliser les conducteurs clients comme testeurs, ce qui devrait être la tache de pilotes professionnels attentifs et conscients.
    Fun fact : en 2010 des pilotes professionnels testaient chaque nouvelle gamme de pneus Michelin dans des conditions de conduites normales.
    Le contraste de dangerosité entre un pneu et un système de conduite est pourtant majeur.
    Mais je suppose que mon absence d'analyse de leur cours de la bourse biaise mon avis...

  3. #403
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 260
    Points
    2 260
    Par défaut
    Citation Envoyé par totozor Voir le message
    Le contraste de dangerosité entre un pneu et un système de conduite est pourtant majeur.
    la différence ne me semble pas majeure non

  4. #404
    Nouveau Candidat au Club
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 59
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Points : 0
    Points
    0
    Par défaut
    Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
    3-6 mois avant, ils savent à peu près comment va fonctionner une version. Après il y a quelques mois pour corriger les bugs et effectuer les tests de sécurité. Puis ils diffusent la version aux employés de Tesla(quelques semaines si tout est ok) et seulement après ça sort pour le grand public.
    A vous lire, on dirait qu'ils font tester les clients.
    Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.

  5. #405
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 260
    Points
    2 260
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    ils savent à peu près comment va fonctionner une version
    Le problème de Tesla c'est ça, et c'est pour ça que ce sont les utilisateurs qui testent (et les autres usagers de la route qui sont mis en danger).
    Le problème des européens c'est juste qu'ils achètent, toujours en encore plus sans se soucier des conséquences sur leur propre emploi et sur leur environnement et que donc ils achètent chez les chinois qui font des bons produits le moins cher possible, avec un grand sens commercial mais sans se soucier du tout de l'environnement et des gens qui produisent.

  6. #406
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 565
    Points : 5 977
    Points
    5 977
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
    Tout à fait, il faut d'abord qu'Elon Musk refasse la vidéo truquée qui montre que le FSD est utile alors qu'en vrai c'est un logiciel de suicide assisté


    Citation Envoyé par DevCon1234 Voir le message
    Pour info, Tesla ne lâche pas ses versions aux utilisateurs comme ça.
    Puis ils diffusent la version aux employés de Tesla(quelques semaines si tout est ok)
    C'est ça, et si un employé de Tesla trouve un bug il est viré dans l'heure directement par Elon Musk, même méthode que chez Boeing


    Citation Envoyé par DevCon1234 Voir le message
    Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
    C'est ça, par exemple en Suisse le système de suicide assisté marche parfaitement, à 100%, alors qu'en France le système de suicide assisté appelé FSD ne te permet de mourir que de façon aléatoire, c'est moins bien.



  7. #407
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    Le problème de l'Europe c'est qu'on veut la perfection, on n'accepte plus aucun risque et par extension, on ne fait rien et on regarde les US et la Chine prendre le large. C'est un problème de mentalité, on le vois très bien dans ce forum.
    Je suis partiellement d'accord avec ça.
    L'Europe et les US n'assument pas les risques de la même façon et la conduite autonome est un bon exemple:
    Tesla met un FSD sur la marché qui fonctionne plus ou moins bien, qui vente un système de conduite autonome mais met dans le conditions d'utilisation que le chauffeur doit rester maitre de son véhicule (et donc que Tesla n'est pas responsable en cas d'accident).
    Mercedes met plus tard une voiture autonome, qui l'est dans moins de situations, si la voiture avec le système de conduite provoque un accident Mercedes se dit responsable juridiquement (on verra ce qu'il en est au premier cas).

    Les Boeing ont une durée de vie définie, en tant que compagnie aérienne tu peux t'en servir ensuite mais à tes risques et périls.
    Les Airbus ont une durée de vie définie, en tant que compagnie tu n'as pas le droit de t'en servir ensuite. (Donc quand il passe en entretien de fin de vie direction la casse)

    Ca donne en effet un avantage en terme d'innovation au US, mais ça apporte à l'Europe une image de fiabilité qui n'est pas à négliger non plus (ce qui est surement moins bénéfique dans l'informatique que dans l'industrie, je veux bien le reconnaitre).

    J'aurais beaucoup moins de problèmes avec le FSD si Tesla était honnête sur son niveau de qualité et sur l'attention nécessaire des chauffeurs.
    Mais aujourd'hui ils survendent toujours ce produit.

  8. #408
    Nouveau Candidat au Club
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 59
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par totozor Voir le message
    Je suis partiellement d'accord avec ça.
    ...
    1er commentaire de qualité et qui critique objectivement le FSD, ça change, merci

    Si on sort de la fascination ou de la détestation de Musk, de ses déclarations "optimistes", tout le monde est conscient que ce n'est pas magique, qu'il y a encore des problèmes mais que ça reste le système le plus avancé et bluffant même si il est au niveau 2 réglementaire. Il suffit d'étudier le fonctionnement. Tout est à disposition, encore faut-il un minimum de connaissance en IA pour comprendre mais ça devrait être le cas ici (voir Andrej Karpathy par ex. pour l'IA). Peu de gens se rendent compte des talents qu'il y a dans cette entreprise.

    Le système de Mercedes ne sert à rien en pratique, c'est juste de la pub déguisé pour dire qu'ils sont les premiers au niveau 3 et surtout, ils ne maitrisent pas la technologie de A à Z (NVidia Drive) et ça c'est une grosse différence entre les constructeurs "classique" et Tesla. Il y a une inertie qu'il n'y a pas chez Tesla.
    De plus, Mercedes va vers la solution la plus complexe, ce qui cantonnera la technologie à des véhicules hauts de gamme et chers, tout le contraire de la philosophie de Tesla qui doit fonctionner avec le moins de hardware possible et tout miser sur le logiciel, ce qui permet d'adapter facillement à d'autres constructeurs (juste des caméras, rien d'autres).
    J'étais le 1er critique sur le tout Vision mais force est de constater que ça fonctionne très bien avec une modélisation de l'environnement quasi parfaite.

    Le pari était depuis le départ d'avoir tout en interne et d'avancer avec l'aide des clients en fournissant le maximum de données pour l'apprentissage avec des retours réels à grande échelle et pas juste sur 100 testeurs internes. Reste la monté en puissance de la force de calcul pour atteindre le but et là aussi, Tesla, qui fait tout en interne, est en train de devenir un de plus gros acteurs avec Dojo et ses supercalculateurs.

    Si on est un minimum objectif, il faut avouer que ça à l'air d'être la voie à suivre, malgré tous les bad buzz à chaque accrochage ou accidents, vu les gains de plus en plus nets entre chaque version.
    Je comprends que ceux qui ne voient pas l'utilité de la voiture autonome, ne comprennent pas la révolution mais pour les autres, il faut être clair, le 1er qui maitrise cette techno sera le roi du pétrole, ironique pour des VE

    Citation Envoyé par totozor Voir le message
    J'aurais beaucoup moins de problèmes avec le FSD si Tesla était honnête sur son niveau de qualité et sur l'attention nécessaire des chauffeurs.
    Mais aujourd'hui ils survendent toujours ce produit.
    On est d'accord sur ce point.
    Il faut dissocier ce que dit Musk de la réalité. C'est surtout lui et les médias qui font croire à des choses qui n'existent pas.

  9. #409
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    1er commentaire de qualité et qui critique objectivement le FSD, ça change, merci
    Je ne te remercies pas, une partie des commentaires qui ne sont pas de qualité viennent de moi.
    Et je penses à la fois ce que je dis dans ce message que dans les précédents.
    [...] tout le monde est conscient que ce n'est pas magique, qu'il y a encore des problèmes mais que ça reste le système le plus avancé et bluffant même si il est au niveau 2 réglementaire. Il suffit d'étudier le fonctionnement. Tout est à disposition, encore faut-il un minimum de connaissance en IA pour comprendre mais ça devrait être le cas ici (voir Andrej Karpathy par ex. pour l'IA). Peu de gens se rendent compte des talents qu'il y a dans cette entreprise.
    Je n'ai ni les compétences ni le temps de me plonger la dedans.
    Il n'empêche que d'un point de vue d'Européen, le FSD est encore au stade de la R&D et donc il ne devrait pas être lancé dans la nature sans supervision. Et ça ne remet pas en cause la compétence des employés de Tesla.
    Le système de Mercedes ne sert à rien en pratique, c'est juste de la pub déguisé pour dire qu'ils sont les premiers au niveau 3 et surtout,
    [...]
    J'étais le 1er critique sur le tout Vision mais force est de constater que ça fonctionne très bien avec une modélisation de l'environnement quasi parfaite.
    C'est le problème du FSD il est quasiment beaucoup de choses.
    Je suis des personnes qui pensent qu'un système de conduite autonome doit évoluer en permanence parce que le code de la route évolue dans le temps et l'espace et que c'est encore plus le cas des cultures de conduite.
    Mais alors peut on se permettre d'un système quasi parfait à un endroit et qui sera inadapté à un autre?
    Quand j'étais au canada les smart étaient considérées comme des scooters, juste bonnes à livrer des pizza. Chez nous de voitures de ce gabarit sont courantes.
    Au canada les ronds points sont quasi inexistants et remplacés par des carrefours à 4 stops qui on un fonctionnement quantique pour l'européen que je suis.
    Donc si les Tesla aime rentrer dans les trottoirs américains comment gèrera-t-elle les notres? Et qu'est ce que je risque si je balade médor pendant qu'une Tesla roule dans le coin?
    Et au vue des incidents des Tesla je ne serais pas confiant d'en croiser une pendant que son chauffeur regarde Speed.
    Si on est un minimum objectif, il faut avouer que ça à l'air d'être la voie à suivre, malgré tous les bad buzz à chaque accrochage ou accidents, vu les gains de plus en plus nets entre chaque version.
    Quel prix est on pret à payer pour cette évolution?
    En tant qu'Européen je penses que dégrader ou retirer une vie est trop cher payé.
    Je comprends que ceux qui ne voient pas l'utilité de la voiture autonome, ne comprennent pas la révolution mais pour les autres, il faut être clair, le 1er qui maitrise cette techno sera le roi du pétrole, ironique pour des VE
    Mais je ne veux pas être le roi du pétrole, je veux juste éviter de me faire faucher par une voiture parce qu'on la fait monter en compétence.
    Il faut dissocier ce que dit Musk de la réalité. C'est surtout lui et les médias qui font croire à des choses qui n'existent pas.
    sauf que Musk (et feu Jobs) est capable de faire croire à la magie à certains de ses fans ou même du quidam et il faut rester méfiant avec ça parce que quand on voit comment certains sont morts on se rend compte que cette phrase n'est pas exacte.
    Si on sort de la fascination ou de la détestation de Musk, de ses déclarations "optimistes", tout le monde est conscient que ce n'est pas magique

  10. #410
    Nouveau Candidat au Club
    Femme Profil pro
    Chef de projet en SSII
    Inscrit en
    Avril 2024
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 59
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Chef de projet en SSII

    Informations forums :
    Inscription : Avril 2024
    Messages : 14
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par totozor Voir le message
    Je ne te remercies pas, une partie des commentaires qui ne sont pas de qualité viennent de moi..
    Je m'en fous de tes anciens message, je réponds à celui-ci qui est une bonne critique.
    La majorité ne savent que mettre des pouces en bas dans ce forum mais très peu argumentent. C'est un peu un forum de moutons d'après ce que je vois alors je réponds aux messages que je trouve pertinents.

    Citation Envoyé par totozor Voir le message
    Mais alors peut on se permettre d'un système quasi parfait à un endroit et qui sera inadapté à un autre?
    Plus on perd de temps avec le FSD en Europe, moins l'apprentissage sera pertinent. On est en train de perdre un temps fou sur les US et le Canada sur ce point. Ce n'est qu'en roulant et en analysant les particularités d'un pays qu'on peut avancer (+ les simulations).

    Citation Envoyé par totozor Voir le message
    En tant qu'Européen je penses que dégrader ou retirer une vie est trop cher payé.
    Ce qui ne veut strictement rien dire. Il y a des centaines de milliers d'accidents tous les jours avec des milliers de morts.
    A partir de quand tu estimes que c'est plus acceptable avec que sans ? Si je te dis que dans 6 mois, le FSD est moins accidentogène que la moyenne des humains, tu trouves plus acceptable d'avoir plus de morts du aux humains ? A un moment, c'est bien ce que la régulation acceptera en bloquant, c'est d'accepter d'avoir plus de morts au contraire de ce que tu dis.

    Citation Envoyé par totozor Voir le message
    je veux juste éviter de me faire faucher par une voiture parce qu'on la fait monter en compétence.
    Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.

    Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
    Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.

  11. #411
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    La majorité ne savent que mettre des pouces en bas dans ce forum mais très peu argumentent.
    Arrêtez de vous focaliser la dessus aussi (je mets au pluriel parce que tu n'es pas la seule à t'en plaindre), perso je ne regarde pas du tout ça.
    Plus on perd de temps avec le FSD en Europe, moins l'apprentissage sera pertinent. On est en train de perdre un temps fou sur les US et le Canada sur ce point. Ce n'est qu'en roulant et en analysant les particularités d'un pays qu'on peut avancer (+ les simulations).
    Ce temps perdu ne m'inquiète pas du tout.
    En plus de la différence de culture industrielle entre l'Europe et l'Amérique du nord, celle automobile est aussi très marquée. Et autant je comprends pourquoi ils veulent avancer dessus autant c'est beaucoup moins urgent pour nous.
    Le plus gros problème que je vois est qu'ils vont nous "imposer" un jour leur modèle qui sera inadapté à nos pays mais on devra faire avec parce que maintenant qu'il y a des centaines puis des milliers de voitures on ne voudra pas retirer leur joujou à ses cadres sup en besoin de reconnaissance.
    A partir de quand tu estimes que c'est plus acceptable avec que sans ? Si je te dis que dans 6 mois, le FSD est moins accidentogène que la moyenne des humains, tu trouves plus acceptable d'avoir plus de morts du aux humains ? A un moment, c'est bien ce que la régulation acceptera en bloquant, c'est d'accepter d'avoir plus de morts au contraire de ce que tu dis.
    Et bien oui, surtout si
    1. Le système de conduite autonome (quel qu'il soit) déclenche des accidents qu'une personne ne déclencherait pas
    2. Celui qui assume le risque est derrière le volant et pas celui qui se balade sur un trottoir ou à vélo ou ...
    Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.
    Quand une personne monte en compétence au volant, il y a un gros panneau bleu au dessus et une personne expérimentée (même pour l'encadrement de débutants) a le contrôle des pédales. Pour moi ça fait une immense différence :
    1. Quand je suis sur la route (en voiture ou à vélo) je suis plus prudent (elle risque de freiner brusquement, d'essayer de tourner à un endroit où elle n'a pas le droit d'aller etc)
    2. L'apprentissage est encadré par une personne professionnelle dans un cadre précis, l'accompagnateur n'est pas en train de rentrer du boulot.
    Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
    Le problème est que vous semblez n'avoir aucune idée de comment la circulation en ville fonctionne.
    Je suis régulièrement à vélo en ville et je brille par mon non respect du code de la route parce que je risque moins ma vie et ma santé en m'adaptant à mon environnement. Je n'ai eu qu'un accident qui aurait pu être grave en 10 ans, parce que je récupère plein d'informations en un regard vers le chauffeur (est-ce qu'il m'a vu? Est ce que nous directions se croisent? Est ce qu'il va respecter ma priorité? etc), avec un pilote auto rien du tout donc il doit être bien plus performant.
    Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
    Si j'en suis convaincu mais ça n'est pas suffisant pour moi, un piéton sur un trottoir devrait être en sécurité, ce n'est pas le cas quand un voiture se dirige vers un trottoir sans raison.
    Les risques d'accidents entre voitures je m'en fous un peu c'est un contrat implicite des conducteurs, c'est une autre histoire pour les usagers fragiles.

  12. #412
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    459
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 459
    Points : 1 975
    Points
    1 975
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    J'aime beaucoup tous les pouces rouges alors que la majorité ne comprends rien à cette marque et sont complètement largués.
    Vous êtes, avec les médias mainstream, une vraie boussole qui indique le sud. Le meilleur indicateur pour savoir quand vendre ou acheter
    Pièce jointe 653972
    Tu es exactement le genre de pigeon que j'adore. Tesla, je les ai vendus vers 400 après les avoir acheté autour des 20.
    À bon entendeur...
    Quant à comprendre une marque, on n'est pas que dans la mode, là. As-tu entendu parler des derniers modèles de Xiaomi, vendus le tiers d'une Tesla équivalente ? Je vois aussi dans la région une quantité égale de Tesla et de MG. Là aussi, les gens qui achètent regardent plus le montant de la facture que "la marque".
    Bref. Dépêche-toi d'acheter Tesla, c'est ce que m'a dit ma concierge ce matin !

    PS : Media mainstream, nous ? Gamin, va donc te moucher, tu baves !

  13. #413
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 581
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 581
    Points : 10 518
    Points
    10 518
    Par défaut
    Citation Envoyé par DevCon1234 Voir le message
    Par contre, par un humain, pas de soucis, tu acceptes le risque. Drôle de réflexion.

    Le problème est que vous n'avez aucune idée de comment ça fonctionne. Très étonnant sur un forum de dev.
    Si je te dis que sur le milliard de km déjà fait par le FSD Beta, il y a eu plus d'accidents évités que ceux qui ont été médiatisés, tu ne vas pas me croire même si je te donne les datas n'est-ce pas ? Et là, je ne parle que de la version beta, pas des nouvelles.
    Le problème c'est aussi la législation et la responsabilité.
    Si un humain conduisant une voiture percute un piéton, on sait qui est responsable pénalement.
    Avec un véhicule soi-disant autonome, on ne sait pas ! Et ce n'est pas acceptable. Pour moi, c'est la société qui a réalisé le logiciel de conduite autonome, mais, Tesla refuse de prendre cette responsabilité. Donc, non, ce n'est pas acceptable.

  14. #414
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 260
    Points
    2 260
    Par défaut
    Se fichent que ça fonctionne
    Ne veulent pas la responsabilité
    Se fichent des gens qui fabriquent
    Se fichent des conducteurs
    Se fichent encore plus des autres usagers de la route
    Mentent sur les capacités du truc
    Mentent sur les statistiques
    Et comme on en a une fois de plus la preuve dans l'actualité de la semaine il se fiche de tous les collaborateurs qui sont à l'origine des succès de la marque

    A oui faut enlever les "nt" à toutes les lignes

    Soit son truc est autonome et capable et dans ce cas il assume la responsabilité du machin, soit c'est du bricolage expérimental (qui plus est basé que sur des cameras qui ont largement montré leur limites) et dans ce cas il change son nom et ne le mets pas sur le marché OTA à la râche comme un vulgaire codec audio.

  15. #415
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    976
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 976
    Points : 17 359
    Points
    17 359
    Par défaut Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot
    Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot, d'après la NHTSA
    Elon Musk a donc décidé de virer les ingénieurs concernés pour arranger les choses

    Les défaillances du système d'aide à la conduite Autopilot de Tesla persistent et entraînent de nouveaux cas d'accidents. La NHTSA (National Highway Traffic Safety Administration) des États-Unis rapporte qu'au moins 20 cas d'accidents impliquant l'Autopilot ont été signalés après les correctifs apportés par Tesla à son logiciel à la suite du rappel de plus de deux millions de véhicules en Amérique du Nord. Les régulateurs fédéraux ont intensifié leur enquête sur l'Autopilot et ont demandé plus d'informations sur la sécurité du système. Entre-temps, le PDG de Tesla, Elon Musk, aurait congédié certains des ingénieurs concernés pour arranger les choses.

    Tesla a rappelé en décembre plus de deux millions de véhicules équipés de son système d'aide à la conduite Autopilot. Ce rappel faisait suite à une enquête de la NHTSA sur des dizaines de cas d'accidents impliquant l'Autopilot, dont plusieurs ont été mortels. Le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs de Tesla sont attentifs lorsqu'ils utilisent l'Autopilot. La NHTSA avait constaté que le nom "Autopilot" pouvait amener les conducteurs à croire faussement que l'automatisation a des capacités plus importantes. Tesla avait rejeté ces conclusions, mais avait accepté d'apporter des correctifs.

    Cependant, les autorités américaines ont annoncé fin avril avoir ouvert une nouvelle enquête sur l'Autopilot. L'enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel. Dans une lettre datée du lundi 6 mai 2024, la NHTSA a fait part de plusieurs préoccupations concernant la solution proposée par Tesla. L'agence a déclaré qu'une analyse préliminaire a identifié au moins 20 accidents dans des véhicules Tesla équipés de la version mise à jour de l'Autopilot. Les nouveaux cas d'accidents semblent similaires à ceux qui ont entraîné le rappel.

    Nom : Capture d'écran 2024-05-08 094358.png
Affichages : 5891
Taille : 152,7 Ko

    Parmi ces accidents, neuf auraient impliqué des Teslas qui ont percuté d'autres véhicules ou personnes sur leur trajectoire - des accidents de type "frontal plane", dans le jargon de l'agence. Ces accidents semblent indiquer que le système de vision de Tesla, basé sur des caméras, ne permet pas de détecter correctement certains objets devant le véhicule lorsque le système Autopilot est activé. La NHTSA a demandé diverses informations sur la manière dont Tesla a mis au point les correctifs, notamment des données qui lui permettront de comparer les performances des véhicules dans ce type d'accidents avant et après le rappel.

    L'agence demande également à Tesla de déterminer combien de fois ses véhicules ont donné aux conducteurs un avertissement "mains sur le volant" - une notification donnée aux conducteurs qui retirent leurs mains du volant alors que la fonction Autopilot est activée (les utilisateurs d'Autopilot sont tenus d'être prêts à prendre le contrôle "à tout moment", selon Tesla). Parmi les autres détails demandés par la NHTSA figurent des explications sur la politique de suspension d'une semaine de Tesla en cas d'utilisation abusive de l'Autopilot et des données sur les différentes façons dont le logiciel peut être activé par les conducteurs.

    La NHTSA cherche également à savoir si Tesla a utilisé la science des facteurs humains dans sa conception, et notamment le nombre d'employés qu'il a consacrés à cette conception. L'agence demande également à Tesla de fournir des informations sur la manière dont il recueille les données télémétriques en réponse aux accidents qui se produisent lorsque le véhicule est équipé du système Autopilot ou de la fonction de conduite autonome Full Self-Driving (FSD). La NHTSA souhaite également obtenir davantage de détails sur la manière dont l'entreprise utilise sa caméra embarquée pour surveiller l'attention du conducteur.

    La NHTSA conclut sa lettre en soulignant que si Tesla ne répond pas aux demandes qu'elle a formulées, il pourrait se voir infliger une amende journalière de 27 168 dollars par infraction, ce qui pourrait représenter une amende maximale de 135 millions de dollars, selon la loi américaine. L'entreprise a jusqu'au 1er juillet 2024 pour répondre. Les correctifs du rappel devaient également permettre de déterminer si l'Autopilot devait être autorisé à fonctionner sur des routes autres que les autoroutes à accès limité. (La solution consistait à multiplier les avertissements au conducteur sur les routes comportant des intersections.)

    Cependant, les préoccupations liées à l'Autopilot ne cessent de se multiplier et Tesla peine à proposer des correctifs adéquats. Mais le PDG Elon Musk aurait supprimé certains postes au sein des équipes chargées du développement et de la sécurité de l'Autopilot. De nouveaux rapports indiquent que l'entreprise a licencié de nouveaux employés ce week-end. Le nombre de personnes qui ont perdu leur emploi lors de cette dernière vague de licenciements n'est pas connu, mais selon les rapports et certains travailleurs concernés, les coupes ont été réalisées dans les équipes des logiciels, des services et de l'ingénierie.


    Pour rappel, dans sa lettre, la NHTSA demande à Tesla d'identifier chaque poste impliqué dans l'évaluation du comportement humain et les qualifications des travailleurs. Et elle demande à Tesla de dire si les postes existent toujours. Phil Koopman, professeur à l'université Carnegie Mellon qui étudie la sécurité de la conduite automatisée, pense que la lettre montre que le rappel n'a pas permis de résoudre les problèmes critiques l'Autopilot. « Il est assez clair pour tous ceux qui regardent que Tesla a essayé de faire le moins de correctifs possible pour voir ce qu'ils pouvaient faire », a déclaré Koopman à propos de la mise à jour.

    « La NHTSA doit réagir avec force, sinon d'autres constructeurs automobiles commenceront à proposer des solutions inadéquates », a-t-il ajouté. Selon Missy Cummings, professeur d'ingénierie et d'informatique à l'Université George Mason qui étudie les véhicules automatisés, la NHTSA répond aux critiques des législateurs à propos d'un manque perçu d'action sur les véhicules automatisés. Elle a déclaré qu'elle soupçonne Musk d'avoir licencié toute personne ayant des connaissances en matière de comportement humain, une compétence clé nécessaire pour déployer des systèmes partiellement automatisés tels que l'Autopilot.

    Ces systèmes ne peuvent pas se conduire eux-mêmes et nécessitent que des humains soient prêts à intervenir à tout moment. Cummings affirme : « si vous avez une technologie qui dépend de l'interaction humaine, vous avez intérêt à avoir quelqu'un dans votre équipe qui sait ce qu'il fait dans ce domaine ». Cummings affirme que ses recherches ont montré qu'une fois qu'un système de conduite prend le relais de l'homme, le cerveau humain n'a plus grand-chose à faire. De nombreux conducteurs ont tendance à trop se fier au système et à s'en désintéresser.

    « Vous pouvez avoir la tête fixée dans une position, vous pouvez potentiellement avoir les yeux sur la route, et vous pouvez être à des millions de kilomètres dans votre tête. Toutes les technologies de surveillance du conducteur au monde ne vous forceront pas à être attentif », a-t-elle déclaré. Selon les experts en sécurité, la NHTSA pourrait demander d'autres mesures correctives pour les rappels, obliger Tesla à limiter les endroits où l'Autopilot peut fonctionner, ou même forcer l'entreprise à désactiver le système jusqu'à ce qu'il soit réparé.

    Source : la lettre de la NHTSA

    Et vous ?

    Quel est votre avis sur le sujet ?
    Quelles conclusions pourraient être tirées des informations demandées par la NHTSA à Tesla au sujet de l'Autopilot ?
    Les régulateurs américains doivent-ils interdire l'Autopilot et l'autoriser à nouveau une fois que Tesla rendra le logiciel plus sûr ?
    Que pensez-vous de la rumeur selon laquelle Elon Musk aurait viré certains des ingénieurs qui travaillaient sur l'Autopilot ?

    Voir aussi

    Tesla licencie de nouveaux employés alors que l'hécatombe entre dans sa quatrième semaine, des employés des équipes des logiciels, des services et de l'ingénierie disent avoir été licenciés

    Tesla licencie plus de 10 % de ses effectifs, soit au moins 14 000 postes, et perd des cadres supérieurs. Elon Musk est rendu en partie responsable de la situation par ses prises de parole sur Twitter/X

    Elon Musk licencie de nouveaux cadres de Tesla et la totalité de l'équipe de 500 personnes qui travaillait sur les superchargeurs, ce qui pourrait avoir des retombées sur la recharge des véhicules Tesla

  16. #416
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 747
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 747
    Points : 121 899
    Points
    121 899
    Par défaut Tesla doit faire face à un procès sur des allégations de conduite autonome
    Tesla doit faire face à un procès intenté par des propriétaires de véhicules, accusant Elon Musk de les avoir induit en erreur sur les capacités de conduite autonome de leurs véhicules.

    Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

    Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

    Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

    L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

    Un juge américain a rejeté récement la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


    La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

    L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

    L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

    Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

    Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais elle a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

    Source : La juge du district de San Francisco, Rita Lin

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

    Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

  17. #417
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 110
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 110
    Points : 56 815
    Points
    56 815
    Par défaut Un propriétaire de Tesla affirme que le Full Self-Driving de sa voiture n'a pas détecté un train en marche
    Un propriétaire de Tesla affirme que la technologie de conduite autonome de sa voiture n'a pas détecté un train en marche
    Une vidéo de l’incident montre sa Tesla qui a failli s'écraser contre ledit train

    Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle le sera plus encore avec la récente publication d’une vidéo qui montre une Tesla à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

    C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

    « Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


    L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

    Le Full Self-Driving de Tesla était déjà une arnaque bien avant le lancement de la bêta, d’après un testeur

    Le premier élément y relatif est que Tesla a vendu le logiciel depuis octobre 2016, lorsque la société a déclaré que toutes les voitures vendues à partir de ce moment-là seraient prêtes à devenir des robotaxis. Elon Musk a promis la même chose le 22 avril 2019, lors du Tesla Autonomy Day. Selon le PDG de Tesla, tous ses véhicules électriques fabriqués à partir de ce jour seraient dotés d'un ordinateur appelé HW 3.0 au lieu du précédent, HW 2.5. Cela ne s'est pas produit. L'entreprise continue de livrer des véhicules équipés du HW 2.5 dans plusieurs pays. En Chine, le gouvernement a exigé que Tesla donne aux clients ce qu'il avait annoncé en remplaçant les mauvais ordinateurs.

    Pour tous les autres clients dans le monde, Tesla dit simplement qu'ils recevront le matériel approprié sans frais supplémentaires lorsqu'ils pourront utiliser la FSD. Mais tout le monde ignore quand le logiciel quittera la version bêta. Hughes a déclaré que certains propriétaires doivent en fait payer 1000 dollars ou plus pour obtenir le bon matériel dans leurs voitures. Pour aggraver les choses, Tesla décide qui peut utiliser le FSD. Jusqu'à présent, seules les personnes basées aux États-Unis ont accès au logiciel bêta, mais elles doivent avoir un score spécifique dans une application appelée Safety Score Beta, qui est elle-même en version bêta.

    Deuxio, le testeur est d’avis que « le FSD n'est qu'un gadget. » Le pirate a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même. » En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui déboursent de l’argent pour s’en approprier.

    Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seul Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.

    Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar en matière de sécurité et veulent. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

    Nom : 0.png
Affichages : 46442
Taille : 34,3 Ko

    Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving

    Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

    Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

    Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

    L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

    Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


    La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

    L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

    L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

    Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

    Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

    Source : Vidéo de l’incident

    Et vous ?

    Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
    Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?

    Voir aussi :

    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

    Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"

  18. #418
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 430
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 430
    Points : 4 784
    Points
    4 784
    Par défaut
    Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
    - Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
    - Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
    - ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?


    Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

    Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.

  19. #419
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 730
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 730
    Points : 6 457
    Points
    6 457
    Par défaut
    c'est de toute façon les limites des réseaux de neurones, le résultat n'est pas garantie.
    Une liste de 50 conditions if c'est moche/dur à lire mais c'est du code solide écrit en dur et reproductible.

    Un réseau de neurone, le comportement est non prédictible, même bien entrainer sur un cas "simple", le taux d'erreur et de 1% au mieux par exemple.
    la reconnaissance d'image et les classifier de ce que j'ai utilisé en python avec la lib Scikit-learn, j'ai toujours pour les projets d'entreprises eux des taux positif au mieux de 90% pour de la reconnaissance d'image et c'est des cas bien plus simple que la conduite autonome qui doit reconnaitre des milliers d’objets sur la route dont le train.


    pour peu qu'on utilise les llm avec chatgpt par exemple on voit vite les problèmes, il m'invente des API qui n'existe pas, parfois même m'invente une syntaxe qui n'existe pas...

    Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain, c'est tres difficile de programmer ces algos pour qu'en cas de doute de laisser l'humain reprendre le contrôle. Un simple pixel sur un panneaux peut faire comprendre l'inverse du panneau.

  20. #420
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 387
    Points : 4 198
    Points
    4 198
    Par défaut
    Citation Envoyé par calvaire Voir le message
    Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain
    Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
    Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 10h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 10h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 22h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 15h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 04h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo