IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Qui tenir pour responsable lorsqu'une IA vous fait perdre votre fortune en bourse ?

  1. #21
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par sergio_is_back Voir le message
    C'est du trading haute fréquence... Plus personne de censé n'y comprend d'ailleurs rien... Les algos se vendent et se rachètent des actions les uns les autres selon des modèles statistiques de plus en plus complexes en quelques dizaines de micro-secondes... T'a même pas eu le temps de voir les ordres d'achat et de vente...
    Jusqu'à une certaine époque, je voyais régulièrement des offres d'emploi de la SocGen en recherche de spécialistes des théories du chaos
    Si c'est pas jouer à l'apprenti sorcier ça...

    -VX

  2. #22
    Membre extrêmement actif

    Profil pro
    Grand Timonier des Chats
    Inscrit en
    Décembre 2011
    Messages
    879
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Grand Timonier des Chats

    Informations forums :
    Inscription : Décembre 2011
    Messages : 879
    Points : 3 302
    Points
    3 302
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Non.

    Le fait qu'un programme soit doté d'une IA forte ne dégagera pas son distributeur de ses responsabilités contractuelles, de même qu'il ne dégagera pas son utilisateur des responsabilités liées à sa mauvaise utilisation.
    De même, il est impossible à un programme d'aller en prison ou de dédommager financièrement une victime.

    En revanche, il serait possible de donner aux éventuelles erreurs pouvant survenir un statu équivalent aux "forces de la nature", ou, comme pour les voitures, requérir une assurance obligatoire pour l'utilisateur.
    Tu parles de lois d'aujourd'hui pour un objet, ou plutôt un type de personne, qui n'existe pas aujourd'hui. Une IA forte, de par sa définition, est un acteur moral au même titre qu'un être humain. À partir de là, si d'aventure il existait une IA forte et que la loi ne la traitait pas en tant que telle, ce serait parce que la loi est dépassée.

  3. #23
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 084
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 084
    Points : 5 604
    Points
    5 604
    Par défaut
    Citation Envoyé par MiaowZedong Voir le message
    Une IA forte, de par sa définition, est un acteur moral au même titre qu'un être humain. À partir de là, si d'aventure il existait une IA forte et que la loi ne la traitait pas en tant que telle, ce serait parce que la loi est dépassée.
    Je prendrai bien garde de ne pas m'avancer autant...
    Surtout en l'absence d'IA forte à ce jour... Et en absence de jurisprudence sur la question... Toutes les affirmations de ce genre ne sont aujourd'hui que supputations !

  4. #24
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par MiaowZedong Voir le message
    Une IA forte, de par sa définition, est un acteur moral au même titre qu'un être humain.
    Lui attribuer un statu juridique particulier, sous forme d'une entité morale, ne signifie rien. Cela va grandement dépendre de la manière dont on va définir ce statu.
    Cela n'a rien à voir avec la définition d'IA forte.

    Une IA forte va "raisonner" de manière similaire à un humain, mais cela ne dit rien quant au statu juridique qu'il faut lui appliquer. Ce qui importe n'est pas tant le processus technique que ses effets. On s'en fout de ce qu'il y a dans la boîte noire, ce qui importe est les effets que cette boîte noire va produire.

    Il n'en reste que celui qui va vendre une IA forte va le faire par le biais d'un contrat, ce qui, quoi qu'il arrive, engagera sa responsabilité auprès du client au niveau du droit des contrats, de même que pour le fournisseur auprès du vendeur.
    Le concepteurs ne peut pas non plus faire n'importe quoi et aura besoin de respecter les lois/normes en vigueur pour s'assurer de la qualité et sécurité du produit vendu.


    Il faut un peu arrêter avec ce fantasme de l'IA forte. Une IA forte reste informatique, si l'IA forte est faillible, il est possible de mettre un intermédiaire en IA faible entre l'IA forte et les actionneurs afin de mettre en place quelques vérifications. De même, il ne faut pas croire qu'une IA forte aura les mêmes limites qu'un humain, que ce soit des limites physiologiques (e.g. fatigue), des limites d'I/O, ou des limites de compétences, en effet, il est assez facile d'imaginer des modules de calculs/IA faibles utilisables par l'IA forte, e.g. pour des pré-traitements d'entrées.
    Il ne faut pas non plus croire que l'IA va devenir folle, certaines fonctionnalités seront très certainement figées par le concepteur par sécurité. L'IA forte peut même être centralisée, avec le contrôle des concepteurs quant aux mises à jour.
    Sachant aussi que les biais humains sont pour la plupart des heuristiques issues de l'évolution. Même en utilisant des algorithmes génétiques, les critères de sélection ne sont pas les mêmes, il y a donc très peu de chances d'aboutir aux même biais si biais il y a. Sachant aussi que l'apprentissage pourra se faire sur des données bien plus conséquentes que ce qu'un humain pourrait être exposé.

    Il est aussi possible de figer l'IA et de tester ses performances sur différents cas, bref, rien à voir avec un humain.

  5. #25
    Membre extrêmement actif

    Profil pro
    Grand Timonier des Chats
    Inscrit en
    Décembre 2011
    Messages
    879
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Grand Timonier des Chats

    Informations forums :
    Inscription : Décembre 2011
    Messages : 879
    Points : 3 302
    Points
    3 302
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Lui attribuer un statu juridique particulier, sous forme d'une entité morale, ne signifie rien. Cela va grandement dépendre de la manière dont on va définir ce statu.
    Cela n'a rien à voir avec la définition d'IA forte.

    Une IA forte va "raisonner" de manière similaire à un humain, mais cela ne dit rien quant au statu juridique qu'il faut lui appliquer.
    Ce n'est pas une question de statut juridique, c'est une question d'éthique. Ce qu'on appelle une IA forte, c'est-à-dire une entité dotée de la même conscience qu'un humain et capable de tous les mêmes raisonnement, dont ceux moraux, est une personne.

    Quant à brider techniquement une IA forte, oui c'est possible (en théorie), mais ça n'a absolument aucun intérêt technique. Une IA forte n'est pas supérieure par sa capacité de calcul à une IA faible. Il n'y aucun intérêt à créer une IA forte, à part justement avoir une machine qui est capable de raisonner sur tout sujet de sa propre initiative, et pas seulement sur des sujets limités et pré-traités.

  6. #26
    Expert éminent sénior
    Avatar de Paul TOTH
    Homme Profil pro
    Freelance
    Inscrit en
    Novembre 2002
    Messages
    8 964
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2002
    Messages : 8 964
    Points : 28 445
    Points
    28 445
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Qui devrait être tenu pour responsable en cas de litige impliquant une IA, selon vous ? Pourquoi ?
    je ne comprend pas bien le parallèle avec Uber, il pourrait à la rigueur être évoqué si c'est le conducteur qui était considéré, car lui a choisi d'être dans une voiture pilotée par une IA, pas la personne qui s'est fait renversée. La responsabilité pour la victime est, au choix, de Uber qui a mis le véhicule en service, ou de l'autorité qui a autorisé la mise en service de ces véhicules.

    Pour le placement, il n'est pas garanti, et si l'usage d'une IA était connue d'avance, le risque l'est aussi. Si quelqu'un me propose de gérer mes fonds avec des experts en bourse et que c'est en réalité une IA qui s'en occupe, c'est alors une tromperie, si on m'annonce que c'est une IA qui prend les décisions, c'est mon choix. Je peux éventuellement prétendre que l'IA est mal conçue et que son auteur en a conscience, mais c'est encore une autre forme d'escroquerie et non une question de responsabilité.

    Citation Envoyé par Bill Fassinou Voir le message
    Est ce qu'il s'agit bien d'une vrai IA ou d'un simple algo ?
    les vraies IA n'existent pas, ça répond à la question ?
    Developpez.com: Mes articles, forum FlashPascal
    Entreprise: Execute SARL
    Le Store Excute Store

  7. #27
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par MiaowZedong Voir le message
    Ce qu'on appelle une IA forte, c'est-à-dire une entité dotée de la même conscience qu'un humain
    Va d'abord falloir me définir ce qu'est la "conscience", et de surcroît la "conscience d'un humain", et ensuite me dire comment tu peux prouver qu'une chose est doté d'une telle conscience.

    Citation Envoyé par MiaowZedong Voir le message
    […]est une personne.
    Je peux tout à fait renier le statu de personne à une IA.

    Citation Envoyé par MiaowZedong Voir le message
    Quand à brider techniquement une IA forte, oui c'est possible (en théorie), mais ça n'a absolument aucun intérêt technique.
    Bien au contraire. Par exemple toute machine se doit d'être dotée d'un bouton d'arrêt d'urgence.

    Ce n'est pas qu'une question aussi de brider mais aussi d'augmenter l'IA forte avec l'IA faible, de la même manière qu'on augmente les humains avec des calculatrices.

    Citation Envoyé par MiaowZedong Voir le message
    Une IA forte n'est pas supérieure par sa capacité de calcul à une IA faible. Il n'y aucun intérêt à créer une IA forte, à part justement avoir une machine qui est capable de raisonner sur tout sujet de sa propre initiative, et pas seulement sur des sujets limités et pré-traités.
    Ce qui n'empêche pas de pré-traiter ou de post-traiter, voire de s'appuyer sur des modules complémentaires.

    Par exemple un robot pourrait avoir e.g. sa caméra pré-traitée pour e.g. corriger la luminosité, ou reconnaître des formes afin de donner ces informations en entrée de l'IA forte. De même, s'il doit se déplacer, on peut lui ajouter des post-traitements pour qu'il s'arrête d'urgence sous certaines conditions, ou pour rester dans un espace délimité.


    Au passage, les enfants, qui sont des humains, rendent responsable leurs parents, i.e. utilisateurs, de leurs actions.

  8. #28
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Cela dit, le problème de responsabilité se pose toujours. Lorsque les décisions prises par l’IA causent des dommages, qui doit être tenu responsable, le concepteur ou la machine elle-même ?
    Pourquoi la seule réponse raisonnable, à savoir celle qui a déjà fait ses preuves, n'est pas présente ? C'est l'utilisateur qui est responsable. Point, barre.

    On ne met pas en prison un forgeron parce que son couteau a servi à tuer quelqu'un.
    On ne met pas non plus le couteau en prison, ça ne satisferai personne.
    On met l'utilisateur en prison car c'est lui qui a décidé d'utiliser le couteau de cette manière.

    De la même manière, un trader qui décide d'utiliser un outil quelconque pour faire du trading doit assumer ses choix. Il s'agit ici de savoir qui est l'utilisateur de la machine. Autrement dit, est-ce que M Kin-kan utilisait directement la machine, et c'est son utilisation qui n'a pas permit d'atteindre les performances escomptées, ou est-ce qu'il utilisait un service fournit par une entreprise qui n'a pas tenu ses promesses, peu importe que ce service soit assuré par des humains ou des machines. Tout cela dépend normalement du contrat et des conditions dans lesquelles celui-ci a été signé.

    Je ne comprends pas ces raisonnements qui, sur la simple raison qu'on ne maîtrise pas le phénomène sous-jacent, on n'est pas responsable. Si j'achète un bâton de dynamite et que je fais sauter la maison de mon voisin alors que je ne connais rien aux explosifs en dehors d'allumer une mèche et courir, est-ce qu'on va m'acquitter ? Non. Et bien la machine ne change rien à ça. Tout comme l'humain : un employé qui fait une faute engage la responsabilité de son employeur. Si on lit par exemple ceci en remplaçant "employé" par "machine", ça garde quasiment tout son sens. Les seuls points qui n'en ont pas sont tous ceux qui ont trait aux fins personnelles, car une machine n'en a pas. Retirez tout ça et, concrètement, celui qui emploi la machine est responsable.

    Dans les faits, on a déjà tout l'arsenal juridique, ou tout du moins la majeure partie, qu'il s'agit juste de généraliser à la machine.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #29
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    On ne met pas en prison un forgeron parce que son couteau a servi à tuer quelqu'un.
    Si le couteau ne respecte pas les normes actuelles, on ne le mettra peut-être pas en prison, mais il risquera d'être sanctionné.
    Notamment si le couteau, prévu pour un usage domestique, a une garde, une gouttière, ou une forme qui l'empêche d'être retiré correctement.

    On pourra aussi le mettre en prison s'il a vendu des armes en connaissance de cause, le considérant alors complice.


    Sachant, que le vendeur est soumis à des obligations contractuelles et légales, e.g. obligation de conformité. Par exemple si, en essayant de couper un saucisson un peu dur, la lame du couteau se casse et vole pour atterrir sur une tierce personne, le vendeur pourra être mis en cause.
    Il se doit aussi d'informer correctement le client quant à la bonne utilisation du produit vendu et des risques possibles, cf les petits livrets qu'on a lorsqu'on achète tout et n'importe quoi.


    Citation Envoyé par Matthieu Vergne Voir le message
    De la même manière, un trader qui décide d'utiliser un outil quelconque pour faire du trading doit assumer ses choix. Il s'agit ici de savoir qui est l'utilisateur de la machine.
    Non, pas uniquement.

    Il faut aussi regarder si l'utilisateur a été correctement informé de l'essence, tenants et aboutissants, de l'outil qu'il utilise.
    S'il a mal été informé, il pourra se retourner contre le vendeur.

    Citation Envoyé par Matthieu Vergne Voir le message
    Autrement dit, est-ce que M Kin-kan utilisait directement la machine, et c'est son utilisation qui n'a pas permit d'atteindre les performances escomptées, ou est-ce qu'il utilisait un service fournit par une entreprise qui n'a pas tenu ses promesses, peu importe que ce service soit assuré par des humains ou des machines. Tout cela dépend normalement du contrat et des conditions dans lesquelles celui-ci a été signé.
    Ce n'est pas une question d'utiliser directement ou indirectement la machine, mais bien de voir si le vendeur a respecté ses obligations légales et contractuelles.

    Citation Envoyé par Matthieu Vergne Voir le message
    Tout comme l'humain : un employé qui fait une faute engage la responsabilité de son employeur.
    À moins que l'employeur réussisse à prouver 3 choses (de mémoire) :
    • l'employé n'a pas reçu d'ordres en ce sens ;
    • l'employé ne l'a pas fait pour les intérêts de l'entreprise ;
    • et je ne me souviens plus de la troisième chose.


    Citation Envoyé par Matthieu Vergne Voir le message
    Si on lit par exemple ceci en remplaçant "employé" par "machine", ça garde quasiment tout son sens. […] Retirez tout ça et, concrètement, celui qui emploi la machine est responsable.
    Non. La responsabilité de l'employeur vis à vis de l'employé résulte d'un lien de subordination.

    Le lien entre une machine et un humain est un lien d'utilisation ou de propriété. Si une personne vole ma machine, ou si un hackeur pirate ma machine, si aucune faute n'a été commise de ma part, je pourrais difficilement être tenu responsable de ce que ma machine aura fait.

    Sachant que certes, si le propriétaire pourra être tenu responsable auprès de la victime, il pourra se retourner contre le vendeur qui pourra se retourner contre le constructeur qui sera le "vrai" responsable. Il y a une "chaîne" de responsabilité.

  10. #30
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Si le couteau ne respecte pas les normes actuelles, ...
    Tu parles de plein de cas, mais aucun qui remet en cause ce que j'ai dit : si on achète un couteau à un forgeron, ce n'est pas le simple fait que ce soit lui qui l'ait fait qui le mettra en tort si l'utilisateur l'utilise mal. Il faudra montrer la faute professionnelle (défaut), l'intention de nuire (complice), etc. Cela ne change pas pour l'IA : il ne suffit pas d'être le concepteur pour se voir responsable. Il faut montrer une faute ou une intention de nuire par exemple. Mon raisonnement est là : ça ne sert à rien de faire tout un barda juridique spécifique pour l'IA, on a déjà tout ce qu'il faut, il suffit de faire pareil.

    Citation Envoyé par Neckara Voir le message
    Il faut aussi regarder si l'utilisateur a été correctement informé de l'essence, tenants et aboutissants, de l'outil qu'il utilise.
    S'il a mal été informé, il pourra se retourner contre le vendeur.
    Encore une fois, IA ou couteau cela ne change rien.

    Citation Envoyé par Neckara Voir le message
    Ce n'est pas une question d'utiliser directement ou indirectement la machine, mais bien de voir si le vendeur a respecté ses obligations légales et contractuelles.
    Encore une fois, IA ou couteau cela ne change rien.

    Citation Envoyé par Neckara Voir le message
    À moins que l'employeur réussisse à prouver 3 choses (de mémoire) :
    • l'employé n'a pas reçu d'ordres en ce sens ;
    • l'employé ne l'a pas fait pour les intérêts de l'entreprise ;
    • et je ne me souviens plus de la troisième chose.
    Aucun de ces cas ne s'applique à l'IA, qui n'a pas de fins personnelles et n'agis que dans le cadre de son utilisation. En dehors de ces cas, encore une fois [...].

    Citation Envoyé par Neckara Voir le message
    Non. La responsabilité de l'employeur vis à vis de l'employé résulte d'un lien de subordination.

    Le lien entre une machine et un humain est un lien d'utilisation ou de propriété.
    Qu'est-ce que ça change au raisonnement ?
    Si on vole ta machine et qu'on l'utilise pour nuire à ton insu, l'utilisateur sera responsable, pas le proprio sauf si on démontre sa négligence ou complicité.
    Si on prend en otage ton employé, et qu'on le force à agir pour nuire, celui qui l'aura forcé sera responsable, pas l'employeur sauf si on démontre sa négligence ou complicité.
    Peu importe comment tu le nommes, le raisonnement reste le même. Tu pourras probablement trouver des exceptions, parce qu'il y en a toujours, mais le raisonnement global reste majoritairement le même. Mon point est là : l'IA, c'est pareil.

    Et la chaîne de responsabilité ne change rien non plus au raisonnement : IA, couteau, employé, même combat.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #31
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Tu parles de plein de cas, mais aucun qui remet en cause ce que j'ai dit : si on achète un couteau à un forgeron, ce n'est pas le simple fait que ce soit lui qui l'ait fait qui le mettra en tort si l'utilisateur l'utilise mal. Il faudra montrer la faute professionnelle (défaut), l'intention de nuire (complice), etc.
    Ce qui est donc plus compliqué que de simplement dire "c'est l'utilisateur le responsable".
    Comme je l'ai dit, il y a des obligations légales et contractuelles, de conformité, d'information, etc.

    Notamment pour l'IA, et contrairement à un couteau, le propriétaire/utilisateur, pourra plus facilement mettre en cause le concepteur du fait de la nature même des techniques d'IA utilisées (biais lors de l'apprentissage, cas d'exceptions non gérées, erreurs).

    Citation Envoyé par Matthieu Vergne Voir le message
    Mon raisonnement est là : ça ne sert à rien de faire tout un barda juridique spécifique pour l'IA, on a déjà tout ce qu'il faut, il suffit de faire pareil.
    Je n'ai pas dit le contraire.


    Citation Envoyé par Matthieu Vergne Voir le message
    Aucun de ces cas ne s'applique à l'IA, qui n'a pas de fins personnelles et n'agis que dans le cadre de son utilisation.
    Je ne parlais ici pas le d'IA en particulier.


    Citation Envoyé par Matthieu Vergne Voir le message
    Si on vole ta machine et qu'on l'utilise pour nuire à ton insu, l'utilisateur sera responsable, pas le proprio sauf si on démontre sa négligence ou complicité.
    Le voleur n'a pas de statu d'utilisateur.

    Citation Envoyé par Matthieu Vergne Voir le message
    Si on prend en otage ton employé, et qu'on le force à agir pour nuire, celui qui l'aura forcé sera responsable, pas l'employeur sauf si on démontre sa négligence ou complicité.
    C'est l'inverse.
    L'employeur sera toujours responsable, sauf s'il démontre qu'il remplit les 3 conditions pour s'exonérer de sa responsabilité.

    Citation Envoyé par Matthieu Vergne Voir le message
    Peu importe comment tu le nommes, le raisonnement reste le même. Tu pourras probablement trouver des exceptions, parce qu'il y en a toujours, mais le raisonnement global reste majoritairement le même. Mon point est là : l'IA, c'est pareil.
    Justement non, l'employé est soumis à un contrat de travail, et au droit du travail. Une IA est soumise au contrat de vente, et aux législations/normes commerciales.

  12. #32
    Membre du Club
    Homme Profil pro
    Ingénieur de recherche en informatique
    Inscrit en
    Décembre 2014
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Ingénieur de recherche en informatique
    Secteur : Service public

    Informations forums :
    Inscription : Décembre 2014
    Messages : 15
    Points : 44
    Points
    44
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Cela dit, le problème de responsabilité se pose toujours. Lorsque les décisions prises par l’IA causent des dommages, qui doit être tenu responsable, le concepteur ou la machine elle-même ?
    STOP, le responsable ne sera jamais la machine. L'IA N'EXISTE PAS, c'est un buzzword pour faire vendre ! C'est un programme, sophistiqué certes, mais un programme quand même, une suite d'instructions que la machine exécute selon l'ordre d'un ou de plusieurs humains !!!

    C'est l'humain qui code le programme,
    c'est l'humain qui choisi le jeu d'apprentissage (ou qui code le programme qui choisi le jeu d'apprentissage, ce qui revient au même),
    c'est l'humain qui décide d'utiliser cette IA avec les risques associés (qu'il doit connaître et évaluer par rapport au bénéfice potentiel),
    au final c'est l'humain qui décide.

  13. #33
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 604
    Points : 18 520
    Points
    18 520
    Par défaut
    Je ne sais pas pourquoi il se plaint, si il avait laissé faire des humains il aurait probablement perdu beaucoup plus d'argent.
    Ça dépend de qui développe l'algorithme, mais généralement il ne fait pas de coup à la Bernard Madoff.

    Jouez son argent en bourse c'est toujours risqué, il n'y a jamais de garanti.
    Le gars n'a relativement pas perdu grand chose.
    Keith Flint 1969 - 2019

  14. #34
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Ce qui est donc plus compliqué que de simplement dire "c'est l'utilisateur le responsable".
    Soit on parle de ce cas particulier, et il n'y a qu'un juge pour statuer en prenant en compte tous les détails de la situation.
    Soit on parle du cas général, et on peut distinguer deux catégories de réflexions :
    - le raisonnement exhaustif, qui est visiblement le tien, or il n'a aucun intérêt ici car, peu importe la question, la réalité est ainsi faite que la réponse est toujours "ça dépend". Même avec tous ce que tu as cité, tu as certainement oublié des trucs, mais là n'est pas le sujet car il ne s'agit pas de faire la liste de tout ce qu'il faut prendre en compte.
    - le raisonnement de principe, qui est le mien, qui vise le cas de base, sur lequel viendront ensuite se greffer toutes les exceptions.

    Mon raisonnement avait notamment pour point de départ l'article, qui annonçait :
    Cela dit, le problème de responsabilité se pose toujours. Lorsque les décisions prises par l’IA causent des dommages, qui doit être tenu responsable, le concepteur ou la machine elle-même ?
    L'utilisateur est passé où ? Si tu n'as aucune info, c'est en premier lieu l'utilisateur le responsable. Si tu souhaites transmettre la responsabilité à un autre, il te faudra apporter des infos supplémentaires pour le justifier.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  15. #35
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    - le raisonnement exhaustif, qui est visiblement le tien, or il n'a aucun intérêt ici car, peu importe la question, la réalité est ainsi faite que la réponse est toujours "ça dépend".
    Pourquoi est-ce qu'une réponse nuancée n'aurait aucun intérêt, et moins d'intérêt qu'une réponse très incomplète et donc fausse ?

    Citation Envoyé par Matthieu Vergne Voir le message
    - le raisonnement de principe, qui est le mien, qui vise le cas de base, sur lequel viendront ensuite se greffer toutes les exceptions.
    Sauf que le cas de base n'est ici pas une victime face au propriétaire, mais le propriétaire face au vendeur de l'IA.
    La question de l'IA n'est pas tant sa mauvaise utilisation que ses erreurs, et de savoir qui en est responsable.

    Dans cette situation, tu ne peux pas dire que c'est forcément de la faute du propriétaire ou du vendeur de l'IA. Se résumer à une telle dichotomie simpliste ne ferait que se lancer dans un faux débat. La réponse est dans le contrat et la loi, avec plusieurs principes que j'ai évoqué précédemment.

    Ce n'est pas une question d'être exhaustif ou non, mais d'être juste ainsi que d'avoir une compréhension du problème.
    Ce qui est nécessaire si on veut montrer que la législation en vigueur suffit à l'IA.

  16. #36
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Neckara Voir le message
    La réponse est dans le contrat et la loi, avec plusieurs principes que j'ai évoqué précédemment.
    Ce n'est vrai que si tu poses l'hypothèse que la loi est déjà suffisante. Or, le questionnement posé par l'article, et au delà de celui-là par l'ensemble des articles au sujet de la responsabilité de l'IA de manière récurente, prend justement l'hypothèse contraire : soit disant que l'IA serait quelque chose de tellement nouveau qu'il faudrait imaginer de nouvelles lois.

    Tu peux agiter le contrat et la loi, mais si en face la personne pense qu'on n'a pas encore ce qu'il faut dedans pour traiter de l'IA, alors c'est d'office considérer tes arguments comme à côté de la plaque. Il convient avant tout de remettre au centre le fait que l'IA se traite comme n'importe quel autre outil. Et cela ne se fait pas en affirmant "c'est déjà écrit dans le contrat/la loi", qui se contente juste de nier l'hypothèse. Cela se fait en acceptant cette hypothèse, et en montrant que, même avec cette hypothèse, les règles juridiques déjà présentes ont du sens si on les applique telles qu'elles sont déjà à l'IA.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  17. #37
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Ce n'est vrai que si tu poses l'hypothèse que la loi est déjà suffisante. Or, le questionnement posé par l'article, et au delà de celui-là par l'ensemble des articles au sujet de la responsabilité de l'IA de manière récurente, prend justement l'hypothèse contraire : soit disant que l'IA serait quelque chose de tellement nouveau qu'il faudrait imaginer de nouvelles lois.
    Avant de se dire qu'il faudrait imaginer de nouvelles loi, il faut déjà s'intéresser aux lois existantes et montrer qu'elles ne suffisent pas.

    Citation Envoyé par Matthieu Vergne Voir le message
    Tu peux agiter le contrat et la loi, mais si en face la personne pense qu'on n'a pas encore ce qu'il faut dedans pour traiter de l'IA, alors c'est d'office considérer tes arguments comme à côté de la plaque.
    Sachant que c'est à lui de me montrer que les lois/contrats que j'évoquerais ne seront pas suffisants, il faudra bien que j'agite le contrat et la loi pour qu'il me pointe ce qui ne va pas dedans vis à vis de l'IA.

    Comme je l'ai aussi déjà dit, IA ou non, il y aura toujours un contrat de vente, cela ne changera pas.
    De surcroît, si nouvelle législation pour l'IA il y a, elle devra rester cohérente avec l'ensemble de la législation et principes juridiques existants.


    Citation Envoyé par Matthieu Vergne Voir le message
    Il convient avant tout de remettre au centre le fait que l'IA se traite comme n'importe quel autre outil.
    Et s'il te répond que ce n'est pas comme n'importe quel outil, tu fais quoi ?

    Tu vas juste te lancer sur un faux-débat à essayer de déterminer si l'IA est "comme n'importe quel autre outil", sachant que le terme "comme n'importe quel autre outil" n'est pas défini, et est difficilement définissable. C'est se tromper de problème.

    Citation Envoyé par Matthieu Vergne Voir le message
    Et cela ne se fait pas en affirmant "c'est déjà écrit dans le contrat/la loi", qui se contente juste de nier l'hypothèse. Cela se fait en acceptant cette hypothèse, et en montrant que, même avec cette hypothèse, les règles juridiques déjà présentes ont du sens si on les applique telles qu'elles sont déjà à l'IA.


    Tu n'as pas besoin d'accepter l'hypothèse pour montrer que les règles juridiques déjà présentes ont du sens si on les applique à l'IA.
    De surcroît, il ne faut pas se tromper de règles à appliquer, et bien utiliser les règles du contrat de vente, et non des règles d'un contrat de travail.

    Au final, cela revient bien à ce que je disais : il y aura toujours un contrat de vente entre le propriétaire et le vendeur, avec plusieurs obligations légales et contractuelles qui y seront attachées. Ce sont ces obligations qui définiront les responsabilités de chacun. À partir de là, les responsabilités dépendront du contrat, ainsi que de la loi qui pourra qualifier certaines clauses d'abusives.

    À partir du moment où il y a une vente, que ce soit un marteau, un chien, ou une IA, il y a contrat de vente. Le vendeur aura toujours la responsabilité d'informer son client, d'offrir une garantie contre les vices cachés, et de fournir un produit conforme.

    Qu'est-ce qui ne fait pas sens de dire que s'il y a vente, il y aura contrat de vente ?
    Comment pourrait-on imaginer une vente sans contrat de vente ?

  18. #38
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Tu n'as pas besoin d'accepter l'hypothèse pour montrer que les règles juridiques déjà présentes ont du sens si on les applique à l'IA.
    Si tu ne prends pas en compte l'hypothèse adverse, comment peux-tu affirmer que celle-ci ne change rien ? Pour mettre à mal un raisonnement, il faut commencer par ses fondements. Partir dans des raisonnements en prétextant que cette hypothèse n'aurait pas d'influence, c'est poser une hypothèse plus forte encore.

    Citation Envoyé par Neckara Voir le message
    De surcroît, il ne faut pas se tromper de règles à appliquer, et bien utiliser les règles du contrat de vente, et non des règles d'un contrat de travail.

    Au final, cela revient bien à ce que je disais : il y aura toujours un contrat de vente entre le propriétaire et le vendeur, avec plusieurs obligations légales et contractuelles qui y seront attachées. Ce sont ces obligations qui définiront les responsabilités de chacun. À partir de là, les responsabilités dépendront du contrat, ainsi que de la loi qui pourra qualifier certaines clauses d'abusives.

    À partir du moment où il y a une vente, que ce soit un marteau, un chien, ou une IA, il y a contrat de vente. Le vendeur aura toujours la responsabilité d'informer son client, d'offrir une garantie contre les vices cachés, et de fournir un produit conforme.

    Qu'est-ce qui ne fait pas sens de dire que s'il y a vente, il y aura contrat de vente ?
    Comment pourrait-on imaginer une vente sans contrat de vente ?
    Bien sûr que ça fait sens de dire qu'il y aura de toute façon un contrat de vente. Mais si tu poses l'hypothèse "On n'a pas les termes juridiques nécessaires pour prendre en compte l'IA", ajouter "on a un contrat" ne pourra te faire inférer que la conclusion sans intérêt "on a un contrat qui ne dit rien sur l'IA". Si l'hypothèse de départ renie l'utilité même du contrat pour répondre à la question, aucun argument basé sur ce contrat n'a de valeur, car de toute façon cet argument ne permettra pas de décider de quoi que ce soit vis à vis de l'IA, puisqu'il se base sur le contrat qui lui-même ne s'exprime pas dessus. Si tu pars directement dans des discussions contractuelles, ce n'est pas que tu n'as "pas besoin" de cette hypothèse, mais que tu la nie d'emblée. Tu te retrouves d'office dans un autre débat.

    Si on admet que les lois et contrats actuels peuvent s'appliquer à l'IA, alors ton discours peut être pris en compte pour dire comment. Tout le problème est que l'hypothèse prise à l'heure actuelle est inverse, ce qui vide de substance ton discours.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  19. #39
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Si tu ne prends pas en compte l'hypothèse adverse, comment peux-tu affirmer que celle-ci ne change rien ?
    À moins de partir dans un raisonnement par l'absurde, i.e. d'utiliser l'hypothèse pour montrer une contradiction, il faut au préalable montrer que l'hypothèse est pertinente, sinon tu pars dans un raisonnement complètement biaisé qui peut aboutir à des conclusions absurdes.

    Citation Envoyé par Matthieu Vergne Voir le message
    Pour mettre à mal un raisonnement, il faut commencer par ses fondements.
    Justement, l'hypothèse fait parti de ses fondements...

    Citation Envoyé par Matthieu Vergne Voir le message
    Partir dans des raisonnements en prétextant que cette hypothèse n'aurait pas d'influence, c'est poser une hypothèse plus forte encore.
    Rasoir d'Ockham / théière de Russell.
    C'est à celui qui affirme l'existence d'une influence de la démontrer, pas l'inverse.

    De surcroît, je montre qu'un certain nombre d'outils contractuels et légaux existent déjà.
    Si tu n'utilises pas les connaissances de l'état de l'art (ici législation), tu n'auras qu'un raisonnement hors sol.

    Citation Envoyé par Matthieu Vergne Voir le message
    Bien sûr que ça fait sens de dire qu'il y aura de toute façon un contrat de vente. Mais si tu poses l'hypothèse "On n'a pas les termes juridiques nécessaires pour prendre en compte l'IA", ajouter "on a un contrat" ne pourra te faire inférer que la conclusion sans intérêt "on a un contrat qui ne dit rien sur l'IA".
    C'est une conclusion absurde, d'où l'intérêt de d'abord montrer la pertinence de l'hypothèse avant de l'utiliser.
    De surcroît, c'est une forme de raisonnement circulaire où l'hypothèse que tu poses est aussi la conclusion à laquelle tu arrives.


    Il est complètement absurde de penser que, sous prétexte qu'on vendra une IA, les parties prenantes du contrat de vente seront exonérées de leurs obligations :
    • de fournir l'IA (vendeur) ;
    • de payer (client) ;
    • de ne pas mentir sur la nature du produit vendu (vendeur) ;


    Comment veux-tu avoir une vente si ces 3 obligations ne sont pas respectée ? Il est complètement absurde d'écarter le contrat au prétexte qu'il ne parle pas spécifiquement de l'IA.

    Citation Envoyé par Matthieu Vergne Voir le message
    Si l'hypothèse de départ renie l'utilité même du contrat pour répondre à la question, aucun argument basé sur ce contrat n'a de valeur, car de toute façon cet argument ne permettra pas de décider de quoi que ce soit vis à vis de l'IA, puisqu'il se base sur le contrat qui lui-même ne s'exprime pas dessus.
    Il est ridicule de croire qu'au prétexte qu'on vendra une IA, le contrat de vente se retrouvera nullifié.
    D'ailleurs, si le contrat de vente se retrouve nullifié, la vente est elle aussi nullifiée, donc pas de vente.

    La conclusion de ton raisonnement sera qu'on ne pourra pas vendre d'IA ou de services basés sur l'IA, c'est ridicule.

    Citation Envoyé par Matthieu Vergne Voir le message
    Si tu pars directement dans des discussions contractuelles, ce n'est pas que tu n'as "pas besoin" de cette hypothèse, mais que tu la nie d'emblée. Tu te retrouves d'office dans un autre débat.
    Les responsabilités découlent du contrat. Si tu ne parle pas du contrat, comment veux-tu parler des responsabilités ?

    Citation Envoyé par Matthieu Vergne Voir le message
    Tout le problème est que l'hypothèse prise à l'heure actuelle est inverse, ce qui vide de substance ton discours.
    C'est aussi ridicule que de dire "l'hypothèse prise à l'heure actuelle est que la Terre est plate, ce qui vide de substance ton discours visant à montrer que la Terre est ronde".

    Tu acceptes ensuite l'hypothèse que la Terre est plate, et va te retrouver à bâtir des modèles très compliqués qui restent presque cohérents.

  20. #40
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Mars 2013
    Messages
    568
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2013
    Messages : 568
    Points : 890
    Points
    890
    Par défaut
    Citation Envoyé par yoyo3d Voir le message
    sauf erreur de ma part, c'est plus prêt des 10% ... on vas mettre ça sur le coup de la digestion, et que c'est bientôt la fin de semaine...tout ça tout ça... pfou... on est tous crevés...
    Bah oui c'est une erreur de ta part, 23 millions sur 2500 millions ça fait exactement 0.92% Mais bon comme tu dis c'est bientôt la fin de semaine

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/02/2018, 18h25
  2. Réponses: 12
    Dernier message: 29/05/2017, 15h59
  3. Réponses: 2
    Dernier message: 24/10/2009, 16h25
  4. Supprimez un fichier excel qui a pour nom une variable
    Par lilp1 dans le forum Macros et VBA Excel
    Réponses: 3
    Dernier message: 09/06/2009, 11h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo