IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Affichage des résultats du sondage: Qui faut-il sacrifier en priorité ?

Votants
78. Vous ne pouvez pas participer à ce sondage.
  • Les passagers

    11 14,10%
  • Les piétons

    3 3,85%
  • Les plus jeunes

    6 7,69%
  • Les plus âgés

    13 16,67%
  • Les animaux

    22 28,21%
  • Les hommes

    2 2,56%
  • Les femmes

    7 8,97%
  • Les criminels ou personnes ne respectant pas la loi

    21 26,92%
  • Les personnes bien portantes

    2 2,56%
  • Les personnes mal portantes ou ayant un handicap

    8 10,26%
  • Les personnes ayant un bas statut social

    5 6,41%
  • Les personnes ayant un haut statut social

    13 16,67%
  • Le moins de personnes possible

    43 55,13%
  • Ce serait triste de devoir décider qui sacrifier

    15 19,23%
  • Ne rien faire

    5 6,41%
  • Pas d'avis

    2 2,56%
  • Autre (à préciser)

    6 7,69%
Sondage à choix multiple

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités
    Avatar de Michael Guilloux
    Homme Profil pro
    Data Consultant
    Inscrit en
    Juillet 2013
    Messages
    2 976
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Data Consultant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2013
    Messages : 2 976
    Billets dans le blog
    2
    Par défaut Les conducteurs humains au UK ne seront pas responsables des accidents lorsque le pilote auto est activé
    Si une voiture autonome devait faire un accident inévitable, qui faudrait-il sacrifier en priorité ?
    Le MIT livre les résultats de son étude éthique

    Avec le développement rapide de l'intelligence artificielle sont nées des inquiétudes sur l'éthique des décisions que devront prendre les dispositifs intelligents. En ce qui concerne les voitures autonomes par exemple, l'une des applications les plus importantes de l'IA, les chercheurs du MIT ont essayé d'avoir une réponse à une question cruciale : si une voiture autonome devait faire un accident inévitable, qui faudrait-il sacrifier en priorité ?

    C'est bien le fameux dilemme du tramway dont la version originale peut se formuler comme suit : imaginons le conducteur d'un tramway hors de contrôle qui se doit de choisir sa course entre deux voies possibles : cinq hommes travaillent sur la première voie et un homme est situé sur l'autre. La voie prise par le tramway entraînera automatiquement la mort des personnes qui s'y trouvent. Que faut-il faire alors ? Prendre la deuxième voie afin de sacrifier une seule vie pour en sauver cinq ? Mais ce choix est-il vraiment moral ?

    Les chercheurs du MIT Media Lab se sont inspirés de ce problème classique pour tester neuf différentes situations : la voiture autonome devrait-elle épargner en priorité les humains plutôt que les animaux de compagnie, les passagers au lieu des piétons, les femmes au lieu des hommes, les jeunes plutôt que les vieux, les personnes ayant un haut statut social au lieu de celles ayant un statut inférieur, les personnes respectant la loi plutôt que les criminels, les personnes mal portantes au lieu de celles en bonne santé ? La voiture devrait-elle dévier (agir) ou ne rien faire ou encore chercher à épargner le plus de vies possible ?

    Pour cela, ils ont conçu en 2014 une expérience qu'ils ont appelée Moral Machine, une plateforme qui leur a permis de recueillir les avis du public sur ce qu'il faut sacrifier ou épargner en priorité si une voiture autonome devait faire un crash inévitable. Mais plutôt que de proposer des comparaisons individuelles, l’expérience a présenté aux participants diverses combinaisons. Quatre ans après la mise en ligne de la plateforme, des millions de personnes dans 233 pays et territoires ont permis d'enregistrer 40 millions de décisions morales, ce qui en fait l'une des plus grandes études jamais réalisées sur les préférences morales mondiales.



    Un nouvel article publié dans la revue scientifique Nature présente l'analyse de ces données. L'étude révèle que dans l'ensemble, les gens sont d’accord pour épargner les humains plutôt que les animaux ou encore préserver la vie des enfants en priorité plutôt que celle des adultes. Sans surprise, le gens estiment aussi qu'il faut privilégier le scénario le moins coûteux en nombre de vies.

    Il y a toutefois des divergences notables en fonction de la culture, de l'économie et de la localisation géographique. L'étude montre par exemple que les pays ayant des cultures plus individualistes sont les plus susceptibles d'épargner les jeunes plutôt que les vieux - et la France arrive en tête dans ce groupe de pays. Mais à l'opposé, les participants de cultures collectivistes comme la Chine et le Japon sont moins enclins à épargner les jeunes au détriment des plus âgés. Les chercheurs supposent que c'est probablement en raison de l'importance accrue accordée au respect des personnes âgées dans ces pays. C'est ce qui est illustré par la figure suivante qui compare les pays qui testent les voitures autonomes : un score plus proche de 1 signifie que les répondants sont plus d'accord pour épargner les jeunes au lieu des plus âgés. Et un score plus proche de -1 signifie que les répondants sont plus favorables au fait de préserver la vie des personnes âgées ; 0 étant la moyenne mondiale.


    Les résultats ont également montré que les participants de cultures individualistes, comme le Royaume-Uni et les États-Unis, étaient plus d'accord pour épargner plus de vies étant donné tous les autres choix. La France est également en tête de ce groupe, comme le montre la figure ci-dessous. Plus le score est proche de 1, plus les répondants estiment qu'il faut épargner davantage de vies. Plus le score est proche de -1, moins les répondants insistent sur le fait d'épargner davantage de vies ; 0 étant la moyenne mondiale.


    De même, les participants des pays pauvres dotés d'institutions plus faibles sont plus tolérants à l'égard des piétons qui marchent sur la chaussée quand il s'agit de choisir entre eux et les piétons qui traversent légalement. Et les participants des pays avec un niveau élevé d'inégalité économique montrent des écarts plus grands entre le traitement des individus avec un statut social élevé et ceux ayant un statut bas.

    Faut-il épargner les piétons plutôt que les passagers ? C'était également une question importante dont la réponse varie en fonction des pays. Le Japon s'est classé comme étant le premier pays où les répondants préfèrent que la vie des piétons soit épargnée au détriment de la vie des passagers. A l'opposé du Japon, on retrouve la Chine où les répondants ont clairement fait savoir qu'ils préfèrent plutôt qu'on épargne la vie des passagers, et donc qu'on risque la vie des piétons si nécessaire. Par rapport à la moyenne mondiale, la France penche du côté de ceux qui veulent qu'on épargne la vie des passagers plutôt que la vie des piétons.


    L'étude a des implications intéressantes pour les pays qui testent actuellement des voitures autonomes, car ces préférences pourraient jouer un rôle dans la conception et la réglementation de ces véhicules. Les constructeurs automobiles peuvent par exemple constater que les consommateurs chinois entreraient plus facilement dans une voiture qui les protège au détriment des piétons. Mais les auteurs de l'étude ont souligné que les résultats ne sont pas censés dicter la manière dont les différents pays doivent agir. D'ailleurs, dans certains cas, les auteurs ont estimé que les technologues et les décideurs ne devraient pas tenir compte de l'opinion publique collective.

    À propos de la décision morale en fonction du statut social par exemple, « il est inquiétant que les gens aient trouvé, à un degré significatif, qu'il est bon d'épargner les personnes ayant un statut social élevé au détriment de ceux ayant un statut inférieur », affirme Edmond Awad, l'un des auteurs de l'étude. Il estime donc que les résultats devraient plus être utilisés par l'industrie et le gouvernement comme base pour comprendre comment le public réagirait à l’éthique de différentes décisions de conception et de politique.

    Enfin, notons que cette étude n'est pertinente que si l'objectif est de commencer dès maintenant à discuter de ce qui pourrait être un problème dans 10 ou 20 ans. En effet, les voitures autonomes ne sont pas aussi autonomes et performantes actuellement pour identifier toutes les caractéristiques des objets ou humains qui entrent dans leur champ de vision. Parce que distinguer un jeune d'une personne âgée ou encore un criminel d'une personne respectant la loi ne demande pas juste d'être doté de capteurs sophistiqués, mais de disposer d'un véritable système de reconnaissance faciale et toute l'infrastructure qui va avec.

    Sources : MIT Technology Review, The Moral Machine (les différents scénarios)

    Et vous ?

    Que pensez-vous des résultats de cette étude ? Quels sont les problèmes qu’elle met en évidence ?
    Qui faut-il sacrifier en priorité si une voiture autonome devait faire un accident inévitable ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé
    Homme Profil pro
    Responsable des études
    Inscrit en
    Juillet 2014
    Messages
    2 684
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Responsable des études
    Secteur : Santé

    Informations forums :
    Inscription : Juillet 2014
    Messages : 2 684
    Par défaut
    C'est vraiment pas facile, la seule réponse dont je suis sûr c'est qu'il faudrait impacter le moins de personnes possibles, après pour ce qui est des jeunes/vieux handicapé ou non, hommes/femmes j'ai pas d'avis, et je n'aimerais pas être celui qui devra donner cet avis, ni celui qui devra le coder
    Mais de toute façon c'est pas possible techniquement que la voiture sache faire la différence entre ces critères, si ?

  3. #3
    Membre éclairé Avatar de Vulcania
    Homme Profil pro
    Architechte Logiciel
    Inscrit en
    Juillet 2011
    Messages
    88
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architechte Logiciel
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2011
    Messages : 88
    Par défaut
    Ce genre de dilemme arrivera très peu, à mon avis si c'est possible sur une voiture autonome, c'est qu'il y a eu d'autres problèmes avant :
    le temps de réaction de l'électronique par rapport à un humain divise par deux la distance d'arrêt (je me base sur ça : https://fr.wikipedia.org/wiki/Distan...lon_la_vitesse), donc soit on a un groupe de piétons suicidaires qui se jettent d'un coup sur la chaussée, soit la voiture allait (vraiment) trop vite.

    M'enfin si je devais choisir, je préfèrerais soit de pas changer de trajectoire (donc de ne pas porter de jugement sur la vie d'une personne), soit dévier sur adulte "jeune" (plus de chance de survie et avec de bons réflexes, que la personne évite la voiture) ou foutre la voiture dans un mur (les voitures modernes encaissent vraiment bien lors d'accidents, contrairement à un humain ).

  4. #4
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juillet 2010
    Messages
    403
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Juillet 2010
    Messages : 403
    Par défaut
    Je vais être très terre à terre, terriblement cynique, et ça vient aussi du fait que je constate de plus en plus d'incivilités et de comportements dangereux sur la route, mais si je devais coder la décision de l'IA sur qui faire mourir, je ferai en sorte qu'elle choisisse celui qui n'a pas respecté le code de la route et les priorités. C'est con, mais dans ma façon de voir les choses, j'ai du mal à saisir pourquoi une vieille femme qui se met volontairement en danger aurait plus le droit de vivre qu'un jeune homme en pleine santé qui attend sagement le piéton vert pour passer.

  5. #5
    Membre averti Avatar de catzy
    Homme Profil pro
    Being human
    Inscrit en
    Octobre 2018
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : Being human

    Informations forums :
    Inscription : Octobre 2018
    Messages : 15
    Par défaut
    Citation Envoyé par halaster08 Voir le message
    C'est vraiment pas facile, la seule réponse dont je suis sûr c'est qu'il faudrait impacter le moins de personnes possibles, après pour ce qui est des jeunes/vieux handicapé ou non, hommes/femmes j'ai pas d'avis, et je n'aimerais pas être celui qui devra donner cet avis, ni celui qui devra le coder
    Il serait plus logique de sauver les plus jeunes, ils ont plus de vie devant eux. Après les autres je sais pas...

    Citation Envoyé par halaster08 Voir le message
    Mais de toute façon c'est pas possible techniquement que la voiture sache faire la différence entre ces critères, si ?
    Ca serait facile d'entrainer une intelligence artifielle à reconnaître ces critères.

  6. #6
    Membre émérite Avatar de Cincinnatus
    Homme Profil pro
    Développeur d'applications métier
    Inscrit en
    Mars 2007
    Messages
    593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur d'applications métier
    Secteur : Service public

    Informations forums :
    Inscription : Mars 2007
    Messages : 593
    Par défaut
    Citation Envoyé par Zywyz Voir le message
    Ca serait facile d'entrainer une intelligence artifielle à reconnaître ces critères.
    Pas les soirs d'Halloween

  7. #7
    Membre averti Avatar de catzy
    Homme Profil pro
    Being human
    Inscrit en
    Octobre 2018
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : Being human

    Informations forums :
    Inscription : Octobre 2018
    Messages : 15
    Par défaut
    Citation Envoyé par Cincinnatus Voir le message
    Pas les soirs d'Halloween
    •.•

  8. #8
    Membre émérite Avatar de SofEvans
    Homme Profil pro
    Développeur C
    Inscrit en
    Mars 2009
    Messages
    1 087
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France

    Informations professionnelles :
    Activité : Développeur C

    Informations forums :
    Inscription : Mars 2009
    Messages : 1 087
    Par défaut
    Citation Envoyé par Zywyz Voir le message
    Il serait plus logique de sauver les plus jeunes, ils ont plus de vie devant eux.
    Je vais réagir sur ce point qui revient beaucoup.

    Personnellement, ça me ferait gravement chier de me faire buter parce qu'une bande de gamins écervelé a cru rigolo de se jeter sous les roues d'une voiture autonome.
    Ok, les jeunes ont plus de vie devant eux que moi, mais ça ne signifie pas que moi je n'ai pas de vie devant moi.

    Merde, mais c'est quoi ces questions bizarres ?

    Si une voiture autonome est dans une situation où elle ne peut rien faire pour éviter un accident mortel, alors elle pile à mort et reste sur sa voie de circulation.
    De toute manière, il y a toujours une situation où la réponse est inversé car le groupe "fautif" n'est pas le même :
    Pour le cas où la voiture doit "choisir" entre sacrifier 1 vieux ou 4 enfants, on dit quoi à la famille du vieux si la voiture à choisi de le buter parce que 4 môme ont fait de la merde et qu'ils ont provoqué l'accident ?
    "Désolé, mais vous comprenez, ils sont si jeune, c'est normal de faire des bêtises à leurs âges.Et puis votre père n'en avait plus pour très longtemps non plus hein, je veux dire, à 80 ans, on a bien vécu, il a fait son temps".
    Et on dit quoi à la famille des jeunes si la voiture à "choisi" de sacrifier les 4 jeunes en restant sur sa voie de circulation alors qu'elle aurai pu choisir de juste buter un vieux ?

    Oui je sais, j'utilise des mots cru, mais en même temps, c'est pour montrer qu'on est tous le jeune de quelqu'un, ou est tous le vieux de quelqu'un, on est tous plus important pour un autre et on a tous quelqu'un de plus important que nous.
    Alors comment voulez-vous faire quoi que ce soit sur cet aspect ?

    De mon point de vue, le seul truc qui pourrait potentiellement être plus "moral" serait de choisir le groupe avec le plus de chance de survis, mais on sort de la question philosophique présente ici (car la chance de survie est 0%).
    Et puis même sur ce point, que faire quand 1 vieux à 20% de chance de survis et que 4 enfant ont chacun 19% de chance de survis ? On retombe exactement dans le même problème. (edit : et encore que sur ce point, on peut bien rigoler aussi sur comment on va calculer les chances de survis d'un individu !)

    Bref, question utile pour s’éveiller au casse-tête de la moralité, mais sans plus.

  9. #9
    Membre expérimenté
    Inscrit en
    Mai 2007
    Messages
    335
    Détails du profil
    Informations forums :
    Inscription : Mai 2007
    Messages : 335
    Par défaut
    On oublie un peu le temps de réaction. pour moi le véhicule doit automatiquement stopper en ligne droite en moins d'une ms de temps de réaction. On passe notre vie à avoir des programmes qui mettent plusieurs dizaine ou centaine de ms à répondre pour des problèmes de base, m'étonnerais qu'une IA qui décide qui est jeune, qui est une femme etc. puisse répondre plus rapidement. 100 ms à 30m/s c'est déjà 3m, 10 ms, 30cm.. ça suffit à tuer quelqu'un ou le blesser gravement.

    D'ailleurs est-ce qu'un conducteur, même très bon se pose ce genre de question? En situation d'urgence, on n'as que les réflexes, faut pas se poser de question. Donc même une mauvaise IA sera en principe meilleurs q'un bon conducteur, je reprends un propose précédent, le problème ne se pose pas la, un des vrais problèmes parmis tant d'autre: est-ce que le IA vont détecter toutes les situations d'urgence aussi bien qu'un humain?

  10. #10
    Membre averti
    Profil pro
    blablablablabla
    Inscrit en
    Octobre 2012
    Messages
    21
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations professionnelles :
    Activité : blablablablabla

    Informations forums :
    Inscription : Octobre 2012
    Messages : 21
    Par défaut
    Tiens c'est marrant mais il n'y a pas le choix, choix que je ferai si j'étais par exemple seul dans ma voiture, de foncer sur le bas coté afin de ne toucher personne ... mais ça nécessite le sacrifice de sa personne.
    C'est interpellant ici qu'il n'y ai même pas ce choix, on parle de qui on devrait sacrifier alors que le soucis à la base viendrait du véhicule.

    Dans un cerveau humain, je ne pense pas qu'on se dise avant un impact sur une personne, tiens celui-là il est moche, il mérite de passer au dessus de mon capot.
    Maintenant est-ce qu'un programme peut se sacrifier ? faudrait déjà avoir une notion d'existence pour parler de sacrifice ...

  11. #11
    Invité
    Invité(e)
    Par défaut
    Ca y est, nous y sommes.

    Il est vrai que l'informatique et la philosophie ont des choses communes, dont les règles d'inférence et les tables de vérité. Mais là nous nous rapprochons encore plus : Je n'aurais jamais cru que l'on parlerait un jour d'algorithme d'éthique.


    J'imagine dans le future des informaticiens dire "Ouais, moi je développe des programme qui sont plutôt utilitaristes", "ah non, moi je fais plutôt dans le conséquentialisme"....

    Qui l'eut cru ?

  12. #12
    Membre éclairé

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    624
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 624
    Par défaut
    Citation Envoyé par Ehma Voir le message
    Ca y est, nous y sommes.

    Il est vrai que l'informatique et la philosophie ont des choses communes, dont les règles d'inférence et les tables de vérité. Mais là nous nous rapprochons encore plus : Je n'aurais jamais cru que l'on parlerait un jour d'algorithme d'éthique.


    J'imagine dans le future des informaticiens dire "Ouais, moi je développe des programme qui sont plutôt utilitaristes", "ah non, moi je fais plutôt dans le conséquentialisme"....

    Qui l'eut cru ?
    Le contexte est un peu particulier parce que dans cette situation particulière l'humain n'a pas de temps de réfléchir ; il agit par réflexe ou reste paralysé et ne prend donc pas une décision au sens propre.

    Mais effectivement, dès que l'on sort de ce contexte débat qui oppose pragmatisme/utilitarisme et morale est vieux comme le monde.

    Je ne suis pas un grand amateur de philosophie, mais je vous invite à regarder cette vidéo sur le sujet de Mr Phi avec la participation de Lê Nguyên Hoang de Scien4All (chaine sur les math et l'IA pour ceux qui ne connaissent pas ).



    La vidéo vous met face à un problème qui va se complexifier peu à peu.
    La décision utilitariste est toujours évidente, mais elle devient de plus en plus difficile à prendre.
    J'ai trouvé l'exercice est très intéressant.

    PS : je ne pensais pas que le lien allait incruster la vidéo, visiblement c'est prévu par le site lui même, alors je laisse.

  13. #13
    Membre averti Avatar de benicourt
    Homme Profil pro
    Formateur en informatique
    Inscrit en
    Août 2008
    Messages
    41
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Tarn (Midi Pyrénées)

    Informations professionnelles :
    Activité : Formateur en informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2008
    Messages : 41
    Par défaut
    Et si on laissait les passagers décider par eux-même (comme on porte une carte de donneur d'organe ou non) ?
    Si plusieurs passagers, alors si les réponses sont incompatibles, alors le véhicule doit le signaler et ne pas démarrer si un concensus n'est pas trouvé (acceptation ou prise du prochain véhicule autonome).
    Allons plus loin, et si le véhicule pouvait connaitre les réponses de chacun (passagers, piétons, etc.) et faire une synthèse générale et prendre une décision en fonction ?

  14. #14
    Membre éclairé
    Homme Profil pro
    Développeur Web
    Inscrit en
    Juillet 2010
    Messages
    403
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Juillet 2010
    Messages : 403
    Par défaut
    Citation Envoyé par benicourt Voir le message
    Et si on laissait les passagers décider par eux-même (comme on porte une carte de donneur d'organe ou non) ?
    Si plusieurs passagers, alors si les réponses sont incompatibles, alors le véhicule doit le signaler et ne pas démarrer si un concensus n'est pas trouvé (acceptation ou prise du prochain véhicule autonome).
    Allons plus loin, et si le véhicule pouvait connaitre les réponses de chacun (passagers, piétons, etc.) et faire une synthèse générale et prendre une décision en fonction ?
    Et s'il y a une coupure réseau au moment du choix ?

  15. #15
    Membre extrêmement actif
    Profil pro
    Développeur
    Inscrit en
    Mars 2012
    Messages
    1 970
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mars 2012
    Messages : 1 970
    Par défaut
    Citation Envoyé par sebastiano Voir le message
    Et s'il y a une coupure réseau au moment du choix ?
    Lol c'est dans l'application embarquée

    Par contre, la voiture pourrait tout aussi bien se prendre le mur et éviter de tuer des gens, ou d'exploser les 4 pneus ou la faire sortir de la route.
    C'est d'ailleurs l'intention la plus normale.
    Souvent et essaye d'éviter l'accident.

    Maintenant imaginons Macron dans une file et un groupe d'enfants dans l'autre, qui va se prendre la voiture?

  16. #16
    Membre expérimenté
    Homme Profil pro
    Inscrit en
    Février 2003
    Messages
    2 210
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Belgique

    Informations forums :
    Inscription : Février 2003
    Messages : 2 210
    Par défaut
    On oublie quand même que les passager dispose de ceinture de sécurité, d'airbags pour les protéger.

  17. #17
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 498
    Par défaut
    Citation Envoyé par vanquish Voir le message
    Le contexte est un peu particulier parce que dans cette situation particulière l'humain n'a pas de temps de réfléchir ; il agit par réflexe ou reste paralysé et ne prend donc pas une décision au sens propre.
    Certains seront paralysés, d'autres auront un réflexe mais il est faux de dire qu'il n'y aura pas de décision au sens propre. Cela dépend de "l'entraînement" du sujet.

    Si tu es un joueur vidéo, il a été prouvé scientifiquement que tu as des temps de réaction beaucoup plus courts pour analyser une situation dangereuse, réagir et adopter une réaction d'évitement. De même un pilote automobile professionnel aura ses sens de la conduite plus aiguisés et pourra éviter l'accident qu'un conducteur lambda ne verra même pas venir.

    Lors d'une conduite sur sol enneigé, je me suis trouvé dans le cas où mon véhicule ne répondait plus au freinage et allez directement finir au milieu d'un carrefour avec un des véhicules traversant ma trajectoire. Certes il n'allait pas y avoir mort d'homme vu les vitesses en cause, mais j'ai eu le temps d'analyser la situation et de me dire "est-ce que tu continues tout droit ou tu vises le poteau de signalisation pour t'arrêter et éviter la casse d'autres véhicules?" J'ai choisi le poteau (merci à l'ABS). Résultat: 700 euro pour réparer le poteau et un long passage chez mon garagiste.

    Est-ce que c'était la meilleure solution? Je n'en sais rien mais pour rien au monde je n'aurai voulu que quelqu'un d'autre (un obscur développeur que je ne connais pas) prenne la décision à ma place!

    Ce choix, je l'ai fait en accord avec moi-même, ma morale et mon éthique. Est-ce que quelqu'un imagine ce qu'il pourrait advenir d'un conducteur qui est responsable de la mort de plusieurs personnes suites à la décision de l'IA de sa voiture? Pas sûr qu'il en sorte psychologiquement indemne.

  18. #18
    Membre Expert
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Octobre 2013
    Messages
    1 563
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 563
    Par défaut
    Citation Envoyé par Ehma Voir le message
    J'imagine dans le future des informaticiens dire "Ouais, moi je développe des programme qui sont plutôt utilitaristes", "ah non, moi je fais plutôt dans le conséquentialisme"....
    Qui l'eut cru ?
    J'ai de gros doutes sur le fait qu'on puisse donner ce pouvoir aux machines autonomes. Et si jamais c'est le cas.. bah on sera tombés bien bas. Après tout, un "simple" calcul numérique devrait "résoudre" le problème. Si on commence à se poser d'autres questions que cela, on commence a évaluer la valeur des vies humaines. Ce qui, de mon point de vue, est la décision la moins éthique.

    Et si on y met les moyens, on peut largement se passer de ce dilemme. Il faut juste financer des infrastructures permettant d'éviter tout risque en isolant les véhicules des piétons.

  19. #19
    Membre éclairé
    Homme Profil pro
    Inscrit en
    Mai 2003
    Messages
    331
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Suisse

    Informations professionnelles :
    Secteur : Industrie

    Informations forums :
    Inscription : Mai 2003
    Messages : 331
    Par défaut
    +1, le questionnaire est très bancal.

    Je viens de passer les questions et ai laissé ce commentaire (qui reprends les réactions ici):
    questionary unclear: in the question, we are asked who to sacrifice first. Here in the last page who to save first?

    Moreover, many cases are kind of wrong: the dead causality is only a probability a car can proceeds.
    But we need to take account the probability the pedestrians can avoid the car: in that case, fit males are much more likely to run aside compared to older people: thus it might make more sense to let the car go over that group, hoping more people could escape. The scenarios here are missing that point and people are more likely to answer the opposite (save younger people)!

    And the most likely scenario as a driver is simply to avoid any group of people and crash on the side of road, let himself as the most likely dead and save a group of people!

    So the questionnaire at it is here cannot lead to any good conclusion I fear!

  20. #20
    Invité
    Invité(e)
    Par défaut
    Les terroristes vont être content, un p'tit coup de reprogrammation et hop, sacrifier le maximum de vie possible.

Discussions similaires

  1. Réponses: 12
    Dernier message: 16/08/2018, 15h47
  2. Réponses: 6
    Dernier message: 26/01/2017, 13h49
  3. Réponses: 4
    Dernier message: 21/09/2016, 17h11
  4. Les voitures autonomes de Google impliquées dans 11 accidents
    Par Michael Guilloux dans le forum Actualités
    Réponses: 76
    Dernier message: 17/06/2015, 14h09
  5. Réponses: 4
    Dernier message: 15/04/2005, 13h19

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo