IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'intelligence artificielle devrait-elle bénéficier des mêmes protections éthiques que les animaux ?


Sujet :

Intelligence artificielle

  1. #21
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Et Darwin n'aura plus qu'à faire sa sélection pour que les pratiques convergent vers des pratiques préservant l'espèce, sans qu'aucun individu n'ait à se frustrer de ce côté là.
    Une sélection contre une entité qui serait plus rapide. Plus fort, insensible à la douleurs Et qui pourrait penser plus rapidement que l'importe humain, Qui aurait la capacité de coordiner des attaques comme aucun humain ne pourrait le faire. Et en plus certain considèrent la possibilité de lui donner la capacité d'avoir des états d'âmes comme la fureur.

    Dans ce contexte, Darwin cesse d'être pertinant. La roulette russe avec un pistolet devient la seule référence valable.

  2. #22
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Je ne parlais pas des robots, mais des "ermites" dont parlait le post qui me précédait directement.

    Quant à l'être tout puissant que tu sembles imaginer, j'attends encore de voir une théorie qui le supporte sans être truffée de trous et de raccourcis en tous genres. Lire des romans c'est bien, les confronter à la réalité c'est mieux.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  3. #23
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 065
    Points : 2 566
    Points
    2 566
    Par défaut
    Le problème est que le terme "inteligence" est associé dans l'inconscient collectif à une forme de vie.
    C'est le piège tendu par les marketeux.

    Alors que nous on sait que se sont des programmes complexes, s' sont des mécanismes sans âmes, qui singent la vie ou l'inteligence.
    Le fait de les habiller de certains artifices pour les rendre plus présentables, robots à visage humain, synthèse vocale,... peut induire en erreur, comme dansle film IA de Spielberg
    Au final ça reste des boîtes de conserves.
    Si ils avaient moins fiers allure comme un tas de roues mécnanique dans une toîte en fer on ne se poserait peut être pas la questions

    Au final l'Ia ne souffre pas, n'a pas d'instinct de survie, ne revendique pas, ne ressent rien à moins que l'on programme ça,, et c'est pas demain la vveille.
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  4. #24
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 211
    Points
    23 211
    Par défaut
    Citation Envoyé par CoderInTheDark Voir le message
    Au final l'Ia ne souffre pas, n'a pas d'instinct de survie, ne revendique pas, ne ressent rien à moins que l'on programme ça,, et c'est pas demain la vveille.
    Disons que rien ne m'empêche de créer une variable "souffrance" dans mon code, puis de faire varier sa valeur à mon bon plaisir.
    Va-t-on m'accuser de torturer mon IA ?

  5. #25
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 065
    Points : 2 566
    Points
    2 566
    Par défaut
    Si c'est toi qui agit sur une varriable, ton IA ne ressent rien par elle même de façon innée.
    Si tu fais varié la douleur à coup de poing ou de pied là c'est différent

    Citation Envoyé par Neckara Voir le message
    Disons que rien ne m'empêche de créer une variable "souffrance" dans mon code, puis de faire varier sa valeur à mon bon plaisir.
    Va-t-on m'accuser de torturer mon IA ?
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  6. #26
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 211
    Points
    23 211
    Par défaut
    Citation Envoyé par CoderInTheDark Voir le message
    Si c'est toi qui agit sur une varriable, ton IA ne ressent rien par elle même de façon innée.
    Si tu fais varié la douleur à coup de poing ou de pied là c'est différent
    Sauf que cette douleur ressentie à coup de poing ou de pied, ne sera là que parce qu'on aura décidé de l'implémenter.


    De plus, c'est une forme d'anthropocentrisme. Tu penses un coup de poing ou de pied comme étant douloureux, car si cela t'arrivait à toi, cela te serait douloureux.

  7. #27
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 065
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 065
    Points : 2 566
    Points
    2 566
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Sauf que cette douleur ressentie à coup de poing ou de pied, ne sera là que parce qu'on aura décidé de l'implémenter.


    De plus, c'est une forme d'anthropocentrisme. Tu penses un coup de poing ou de pied comme étant douloureux, car si cela t'arrivait à toi, cela te serait douloureux.
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  8. #28
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Neckara Voir le message
    Disons que rien ne m'empêche de créer une variable "souffrance" dans mon code, puis de faire varier sa valeur à mon bon plaisir.
    Va-t-on m'accuser de torturer mon IA ?
    Non, ta variable n'est pas ce qu'on appelle la souffrance. Ta variable te donne une quantité, au même titre que mesurer l'activité cérébrale d'un humain qui souffre te donne une quantité. Mais ça ne te permet pas de dire si une personne souffre ou non. C'est en corrélant d'autres observations, comme son comportement dépressif, ses cris de douleurs, ses opinions négatives, etc. que tu identifieras ça à de la souffrance.

    Mais tu pourras me retoquer "Je n'ai qu'à coder ma machine pour que, quand ma variable dépasse un certain seuil, on puisse observer ces comportements, et j'aurai une machine souffrante !". Sauf qu'on aura encore là un point fondamental qui sépare la machine de l'être vivant : ce comportement n'est pas naturel, il a été introduit pour répondre à un besoin (celui de simuler la souffrance telle qu'on la connaît). A contrario, la souffrance d'un être vivant est le résultat de son évolution, et donc un mécanisme émergent. Nous, on a le second, on peut donc comprendre ou ressentir son impact, et donc faire preuve d'empathie amenant à ne pas le souhaiter pour l'autre, parce qu'on ne le souhaite pas pour nous-même. Le premier en revanche, difficile de faire preuve d'empathie quand on sait que c'est un comportement décidé de manière arbitraire, et donc fondamentalement différent du notre.

    Avant d'en arriver à parler éthique, il va falloir établir si des notions telles que souffrance, plaisir, intention, volonté sont applicables à la machine. Pour l'instant, je n'en suis pas convaincu.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #29
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    un point fondamental qui sépare la machine de l'être vivant : ce comportement n'est pas naturel, il a été introduit pour répondre à un besoin
    encore une fois si l'on s'en tient aux définitions en vigueur, le fait de n'être "pas naturel" (et qui relève de ta propre définition, comme étant finalement et par corolaire "ce qui est créé par la main de l'Homme", c'est très pratique...) n'entre pas en ligne de compte pour déterminer si un organisme est vivant ou non.

    Citation Envoyé par Matthieu Vergne Voir le message
    Avant d'en arriver à parler éthique, il va falloir établir si des notions telles que souffrance, plaisir, intention, volonté sont applicables à la machine. Pour l'instant, je n'en suis pas convaincu.
    la souffrance et le plaisir sont des perceptions qui sont propres à chaque individu, c'est notamment pour cette raison qu'on ne sait pas quantifier la douleur autrement qu'en demandant au patient quelle note il attribuerait lui-même sur une échelle de 1 à 10, ainsi pour savoir si une machine intelligente souffre, on aurait pas d'autre moyen que de lui demander et de la croire sur parole.

    avant même de lui demander, il me semble qu'il faudrait d'abord savoir si on lui reconnait ou non une conscience. si on reconnait que la machine est consciente, alors on doit accepter que la douleur qu'elle dit percevoir est bien réelle.
    ce qui amène une question adjacente ; qu'est-ce qui fait que l'on reconnait qu'un autre individu (un humain par exemple) est conscient ? va-t-on fouiller dans son cerveau pour s'en assurer ? en d'autres termes qu'est-ce qui définit la conscience ?

    l'ébauche de page wiki sur la conscience artificielle semble dire que "L'intelligence artificielle (...) tend à désigner des algorithmes plus ou moins complexes effectués par les ordinateurs, mais toujours sous contrôle et maîtrise de l'Homme. En partant de ce postulat, on peut considérer que le système informatique devient conscient à partir du moment où il n'est plus totalement maîtrisé", ce qui loin d'être un axiome permet d'avoir une base de réflexion sur le sujet.

    la question renvoie aussi inévitablement au problème difficile de la conscience exposé par David Chalmers, et par là à la question de la conscience phénoménale qualitative, s'appliquant non seulement aux machines mais également à nous autres humains. sur ce point, les philosophes dits illusionnistes semblent dire que la conscience est un leurre, tout un programme...

    évidemment rien de tout ça n'est tranché, et les pistes de réflexion sur le sujet sont nombreuses, mais il me semble que si l'on veut parler un peu sérieusement de tous ces sujets c'est vers la philosophie analytique qu'il faudrait se tourner (entre autres), laquelle pose souvent plus de questions que d'affirmations, et cherche à en explorer les aspects avec rigueur et logique.

  10. #30
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par BufferBob Voir le message
    encore une fois si l'on s'en tient aux définitions en vigueur, le fait de n'être "pas naturel" (et qui relève de ta propre définition, comme étant finalement et par corolaire "ce qui est créé par la main de l'Homme", c'est très pratique...) n'entre pas en ligne de compte pour déterminer si un organisme est vivant ou non.
    Il aurait été de bon aloi d'appuyer ton propos en donnant ladite définition. Alors j'ai cherché des définitions d'être vivant :
    • Linternaute -> ça s'appuie sur la notion d'esprit et de goûts. Pas très satisfaisant, mais pour le coup ça rejette les machines.
    • Wiktionnaire -> animé par la vie... pas très concluant.
    • Wiktionnaire "vivant" -> les définitions sont nombreuses, alors tu ne m'en voudra pas de ne pas toutes les couvrir, celle qui me semble la plus pertinente étant la première, qui renvoie à la notion de vie de Wikipédia.
    • Wikipédia -> je cite "La principale caractéristique d’un être vivant, par rapport aux objets inanimés et aux machines, est qu’il est « un corps qui forme lui-même sa propre substance » à partir de celle qu’il puise dans le milieu." La définition continue, mais il est clairement fait état que la machine n'en fait pas partie.


    Donc sur cette base, une différence entre un être vivant et une machine est que la machine, elle, ne l'est pas, vivante. Chouette, mais c'est pas ce qui m'intéresse parce que c'est pas mon point. Je ne parle pas spécialement d'êtres vivants, mais plus largement de ce qui est naturel. C'est à dire ce qui est amené à avoir une existence en dehors de tout objectif recherché. Les montagnes, c'est pareil. Mais comme la discussion se concentre sur les être vivants, je fais de même.

    Citation Envoyé par BufferBob Voir le message
    qu'est-ce qui définit la conscience ?

    l'ébauche de page wiki sur la conscience artificielle semble dire que "L'intelligence artificielle (...) tend à désigner des algorithmes plus ou moins complexes effectués par les ordinateurs, mais toujours sous contrôle et maîtrise de l'Homme. En partant de ce postulat, on peut considérer que le système informatique devient conscient à partir du moment où il n'est plus totalement maîtrisé", ce qui loin d'être un axiome permet d'avoir une base de réflexion sur le sujet.
    Une base, certes, mais qui me semble facile à disqualifier comme base pertinente de réflexion : est-ce qu'on maîtrise totalement le comportement de la foudre ? On connaît très bien la théorie qu'il y a derrière, mais ça ne nous aide pas à prédire précisément quand la foudre va frapper, où elle va le faire, ou comment elle va se déployer, ces éléments étant chaotiques. L'apprentissage machine, c'est pareil : on sait très bien comment c'est fait, mais ça ne nous dit pas comment telle instance va évoluer exactement. Si tu prends une base présupposant que la foudre ait une conscience, je ne suis pas sûr que tu arrives à convaincre beaucoup de gens.

    Citation Envoyé par BufferBob Voir le message
    la question renvoie aussi inévitablement au problème difficile de la conscience exposé par David Chalmers, et par là à la question de la conscience phénoménale qualitative, s'appliquant non seulement aux machines mais également à nous autres humains. sur ce point, les philosophes dits illusionnistes semblent dire que la conscience est un leurre, tout un programme...

    évidemment rien de tout ça n'est tranché, et les pistes de réflexion sur le sujet sont nombreuses, mais il me semble que si l'on veut parler un peu sérieusement de tous ces sujets c'est vers la philosophie analytique qu'il faudrait se tourner (entre autres), laquelle pose souvent plus de questions que d'affirmations, et cherche à en explorer les aspects avec rigueur et logique.
    Si je suis d'accord sur le constat fait sur la notion de conscience, je ne suis pas convaincu que cela ait un réel intérêt pour la question qui nous intéresse ici, dans le sens où l'incapacité avérée à répondre à la question "qu'est-ce que la conscience ?" ne change rien au fait qu'on fait clairement et facilement la séparation entre l'humain et la machine. Cette séparation ne se base donc pas sur la notion de conscience, ou en tout cas pas celle dont on s'évertue à chercher encore la définition.

    En l'occurrence, le premier argument qui ressort quand on différencie humain et machine, c'est que la machine, "c'est programmé". Il n'y a pas longtemps encore sur ce forum les arguments de ce type fleurissaient dès qu'un article sur l'IA sortait, soit disant que c'était pas intelligent parce que c'était "programmé" pour faire ce que ça faisait. L'argument n'était pas correcte, car l'apprentissage machine n'est que partiellement programmé, les poids étant généralement initialisés de manière aléatoire et ensuite calculés en fonction des données en entrées et les résultats en sortie. Mais l'argument plus général que "c'était fait pour ça" était (et est toujours) bien valable, dans le sens où même l'apprentissage machine est utilisé pour reproduire des comportements souhaités, et que quand ça ne marche pas on réessaye autrement jusqu'à avoir ce qu'on souhaite. C'est tout l'inverse d'un processus naturel, qui se produit même si personne ne le demande et ensuite on a ce qu'on a, même si ça ne plaît pas.

    C'est cette distinction entre naturel et artificiel qui pour moi est fondamentale : le fait même que ce soit artificiel veut dire qu'on a chercher à l'obtenir, c'est donc là pour une raison. Un être naturel, on peut lui chercher des raisons, mais même sans en avoir c'est là et c'est comme c'est. Un être artificiel, sans raison pour le faire, ça n'existerait pas. L'existence d'un objectif est donc une propriété essentielle d'un être artificiel, et cet être artificiel est donc là pour atteindre cet objectif. S'il ne le permet pas, c'est un rebut, et donc on requalifie son utilité (réutilisation, recyclage) ou on le détruit.

    Introduire une quelconque propriété amenant à les traiter de manière éthique serait pour moi tout à fait contre-productif, car cela remettrait en cause l'objectif même pour lequel ils ont été créés. En ce sens, toutes les propriétés qu'on pourrait identifier qui amènerait à des traitements éthiques de la machine devraient être interdits dès lors que cette machine est produite en tant qu'outil. Car son usage en tant qu'outil interférerait forcément avec ces considérations éthiques, tout comme le traitement de l'humain comme simple outil, exploitable et remplaçable à souhait, n'est pas éthique.

    Je ne dis pas qu'aucune machine à traiter avec éthique ne devrait voir le jour, mais si l'on en vient à ce genre de création, on ne pourra plus se permettre de les traiter comme les autre machines. Il sera dès lors important de pouvoir faire la distinction entre cette machine "spéciale" et la machine "outil" qu'on produit à côté. Sinon on verra sortir des manifestants pour rendre leurs droits aux calculatrices, ce que je trouverait totalement stupide.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  11. #31
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    mais c'est pas ce qui m'intéresse parce que c'est pas mon point. Je ne parle pas spécialement d'êtres vivants, mais plus largement de ce qui est naturel. C'est à dire ce qui est amené à avoir une existence en dehors de tout objectif recherché.
    soit, d'autant que pour peu que la définition de "vivant" soit plus restrictive que la notion de "conscient" rien n'interdirait l'existence d'un être conscient qui ne soit pas vivant .
    en revanche sur la notion de "naturel", elle n'engage que toi, si les philosophes, biologistes, psychologues, neuro-chirurgiens etc. ont du mal à tomber d'accord, ce n'est pas sur le fait d'être ou non "naturel" ou dicté par l'expression d'un besoin.

    Citation Envoyé par Matthieu Vergne Voir le message
    Une base, certes, mais qui me semble facile à disqualifier
    oui complètement, mais après tout c'est une base comme une autre, elle a au moins le mérite de sortir de quelque part, et la disqualifier de manière valide n'est pas inutile.

    Citation Envoyé par Matthieu Vergne Voir le message
    Si je suis d'accord sur le constat fait sur la notion de conscience, je ne suis pas convaincu que cela ait un réel intérêt pour la question qui nous intéresse ici
    c'est pourtant un des seuls points qui fait consensus parmi les philosophes et les scientifiques, quelque soit leur conviction finale, c'est la conscience qui est au cœur du débat et qui justifie le questionnement éthique (c'est d'ailleurs un peu ce que dit Aeon dans l'article).

    Citation Envoyé par Matthieu Vergne Voir le message
    l'incapacité avérée à répondre à la question "qu'est-ce que la conscience ?" ne change rien au fait qu'on fait clairement et facilement la séparation entre l'humain et la machine. Cette séparation ne se base donc pas sur la notion de conscience
    effectivement, elle se base exclusivement sur des croyances qu'apparemment plus personne ne cherche à fonder.

    la question n'est par ailleurs pas de faire la distinction entre humain et machine, mais de savoir s'il y a lieu de traiter une IA "très sophistiquée" (tellement sophistiquée que la question viendrait donc à se poser) comme une entité consciente et donc relevant de droits éthiques

    Citation Envoyé par Matthieu Vergne Voir le message
    En l'occurrence, le premier argument qui ressort quand on différencie humain et machine, c'est que la machine, "c'est programmé". Il n'y a pas longtemps encore sur ce forum les arguments de ce type fleurissaient dès qu'un article sur l'IA sortait, soit disant que c'était pas intelligent parce que c'était "programmé" pour faire ce que ça faisait.
    peut-être faudrait-il demander leur avis à des gens plus informés, ou amener ceux-là à s'informer d'avantage, de manière à éviter ce genre d'argument souvent ponctué de terminators. la sagesse populaire a ses limites.

    Citation Envoyé par Matthieu Vergne Voir le message
    Mais l'argument plus général que "c'était fait pour ça" était (et est toujours) bien valable, dans le sens où même l'apprentissage machine est utilisé pour reproduire des comportements souhaités, et que quand ça ne marche pas on réessaye autrement jusqu'à avoir ce qu'on souhaite. C'est tout l'inverse d'un processus naturel, qui se produit même si personne ne le demande et ensuite on a ce qu'on a, même si ça ne plaît pas.
    ça ne me semble pas plus valable. on peut à cet argument opposer plusieurs objections ;

    • qu'est-ce qui nous assure que nous mêmes n'avons pas été programmés tels que nous sommes dans un but précis ? (qu'il s'agisse de la main de Dieu ou d'extraterrestres super évolués qui auraient créé de toute pièce notre molécule d'ADN etc.)
    • qu'en est-il des enfants fécondés in vitro ? ces individus n'auraient pas pu voir le jour sans le besoin des parents de recourir aux nouvelles technologies. dirait-on que ces enfants "non-naturels" n'ont rien de vivant/de conscient/n'ont pas les mêmes droits que les autres ?
    • "on a ce qu'on a, même si ça ne plait pas" est un raisonnement biaisé puisque la sélection naturelle fonctionne par essais-erreurs, nous ne sommes "naturels" et vivants que parce que notre espèce "a plu" à la nature, laquelle a essayé pleins de choses, certaines ont fonctionné et d'autres pas.
    • ce qui renvoie à la même question sur l'autre rive : quid des algorithmes génétiques ? ils fonctionnent sur le même principe, dirait-on alors que les avatars dans les simulations sont "naturels" et qu'ils ont des droits ?


    Citation Envoyé par Matthieu Vergne Voir le message
    Introduire une quelconque propriété amenant à les traiter de manière éthique serait pour moi tout à fait contre-productif
    j'ai bien compris -et encore une fois la position me semble tout à fait défendable- mais je pense que le propos est légèrement différent, il est moins question de vouloir créer une IA consciente que d'envisager que si une telle IA venait à exister (et un certain nombre d'éléments laissent à penser que ce pourrait être un phénomène complètement émergent, passant par l'apparition d'un "espace de travail neuronal global" coordonnant différentes aires psychiques séparément non-conscientes), et sous-entendu qu'une telle IA va plus ou moins inévitablement être créée dans les années à venir, faudrait-il alors les doter de certains droits éthiques ? en ça la question rejoint simplement celles que l'on peut avoir concernant les droits des autres animaux, et c'est là encore ce que dit Aeon d'ailleurs, à savoir qu'un tel comité d'éthique dédié aux machines/IA n'existe pas, pourtant le point de vue a du sens on ne peut le nier, même si on est d'un autre avis.

    pour le moins je peux conseiller, à ceux que ça intéresse, deux vidéos que j'ai visionné récemment et qui loin d'être exhaustives permettent d'appréhender la question de la conscience artificielle avec des bases assez saines :

    • youtube/watch?v=pUlelg-F89k (+1h)
    • youtube/watch?v=ChcYySk_jro (~20min)


    la première est une conférence dont la première demi-heure retrace un état des lieus de ce que l'on sait sur la conscience, la seconde vidéo est une tentative assez correcte et technique de créer -théoriquement- une conscience artificielle grâce aux techniques de {machine,deep} learning, les deux sont en tous cas très intéressantes.

  12. #32
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par BufferBob Voir le message
    on peut à cet argument opposer plusieurs objections ;

    • qu'est-ce qui nous assure que nous mêmes n'avons pas été programmés tels que nous sommes dans un but précis ? (qu'il s'agisse de la main de Dieu ou d'extraterrestres super évolués qui auraient créé de toute pièce notre molécule d'ADN etc.)
    • qu'en est-il des enfants fécondés in vitro ? ces individus n'auraient pas pu voir le jour sans le besoin des parents de recourir aux nouvelles technologies. dirait-on que ces enfants "non-naturels" n'ont rien de vivant/de conscient/n'ont pas les mêmes droits que les autres ?
    • "on a ce qu'on a, même si ça ne plait pas" est un raisonnement biaisé puisque la sélection naturelle fonctionne par essais-erreurs, nous ne sommes "naturels" et vivants que parce que notre espèce "a plu" à la nature, laquelle a essayé pleins de choses, certaines ont fonctionné et d'autres pas.
    • ce qui renvoie à la même question sur l'autre rive : quid des algorithmes génétiques ? ils fonctionnent sur le même principe, dirait-on alors que les avatars dans les simulations sont "naturels" et qu'ils ont des droits ?
    Les points 1 et 3 n'ont de valeur que si on donne une intention à la Nature, qu'on l'appelle Dieu ou autre, ce dont la science s'est toujours défendue pour rester dans le mesurable. En l'occurrence, ces observations s'expliquent très bien sans une telle intention.

    Le point 4 n'est pas de même nature, car ici l'évolution est dirigée par les objectifs humains, ceux-là même qui décident des critères à implémenter dans les algos génétiques (et plus généralement algos évolutionnaires) pour diriger l'évolution vers un résultat souhaité.

    Quant au point 2, si le point d'orgue de l'argument est la volonté des parents d'avoir un enfant, inutile de parler de fécondation in vitro, la reproduction de base suffit à poser l'argument. Dans les deux cas, on lance un processus naturel de manière artificiel, mais on ne crée pas un être de toute pièce pour un usage précis. Si tu me dis que demain on pourra créer un enfant biologique dont on pourra déterminer la majorité des paramètres, là je te réponds qu'on sera dans le domaine de l'artificiel car, dès lors qu'on aura choisis ces paramètres, tout résultat qui s'en éloignera sera, a raison, considéré comme un rebus, un produit défectueux. Or c'est une pratique que l'éthique prohibe justement. L'affaire des bébés chinois génétiquement modifiés a d'ailleurs remis la question sur le tapis. Un bébé dont on a lancé la création, que ce soit in vitro ou non, n'en reste pas moins le résultat du même processus naturel qu'on connaît et, si le bébé ne nous plaît pas parce qu'il chouine trop, l'éthique ne nous permettra pas pour autant d'aller en changer.

    Citation Envoyé par BufferBob Voir le message
    j'ai bien compris -et encore une fois la position me semble tout à fait défendable- mais je pense que le propos est légèrement différent, il est moins question de vouloir créer une IA consciente que d'envisager que si une telle IA venait à exister (et un certain nombre d'éléments laissent à penser que ce pourrait être un phénomène complètement émergent, passant par l'apparition d'un "espace de travail neuronal global" coordonnant différentes aires psychiques séparément non-conscientes), et sous-entendu qu'une telle IA va plus ou moins inévitablement être créée dans les années à venir, faudrait-il alors les doter de certains droits éthiques ? en ça la question rejoint simplement celles que l'on peut avoir concernant les droits des autres animaux, et c'est là encore ce que dit Aeon d'ailleurs, à savoir qu'un tel comité d'éthique dédié aux machines/IA n'existe pas, pourtant le point de vue a du sens on ne peut le nier, même si on est d'un autre avis.
    Je comprends l'idée et, d'un point de vue purement théorique, je suis d'accord. Ce que je déplore est qu'on lance les débats alors qu'on ne sait même pas si créer une machine consciente fait sens, et ça, ça a un impact bien pratique : c'est facile de faire du lobbying quand la société n'a aucune idée de ce dont on parle. Partir sur des discussions de "et si la machine était consciente" impose forcément de prendre position sur ce qu'on entend par "être conscient", car c'est de là que déroulera le raisonnement. Sauf que si on n'est pas compétent, on se laissera influencer par ceux qui semble l'être plus. Or ceux qui le sont réellement ne sont guère nombreux, mais ceux qui semblent l'être... les lobbyistes savent très bien comment être convaincant sans être compétent. Ça s'appelle plus communément "savoir vendre son produit". Partir dans des discussions normatives, à l'heure actuelle, sur ces questions me semble donc trop précoce pour permettre une réflexion sérieuse sur le sujet.

    Citation Envoyé par BufferBob Voir le message
    pour le moins je peux conseiller, à ceux que ça intéresse, deux vidéos que j'ai visionné récemment et qui loin d'être exhaustives permettent d'appréhender la question de la conscience artificielle avec des bases assez saines :

    • youtube/watch?v=pUlelg-F89k (+1h)
    • youtube/watch?v=ChcYySk_jro (~20min)


    la première est une conférence dont la première demi-heure retrace un état des lieus de ce que l'on sait sur la conscience, la seconde vidéo est une tentative assez correcte et technique de créer -théoriquement- une conscience artificielle grâce aux techniques de {machine,deep} learning, les deux sont en tous cas très intéressantes.
    J'ai visionné la vidéo de 20 minutes :

    03:20 - Il confond sémantique et syntaxe : l'autoencodeur effectue une compression, potentiellement avec perte, de la donnée, en essayant de minimiser ladite perte. En ce sens, c'est la même chose qu'un zip : le contenu d'un zip n'a aucune notion sémantique, il s'agit uniquement de compresser la quantité d'information en réduisant les redondances. Ce processus est une réduction réversible, car il tente de préserver l'information en ne changeant que sa représentation en une autre représentation plus optimisée. C'est pourquoi à partir du niveau du milieu de l'autoencodeur on peut reconstruire les données de sortie proches de celles d'entrée. Compresser le sens est un processus différent : celui d'abstraction, qui lui est non réversible, car il nécessite un rajout d'information pour re-spécialiser le concept. On ne traite donc pas des concepts (et encore moins leurs relations), mais juste une représentation différente de la même information, sans structure particulière. C'est typiquement l'exercice difficile en apprentissage machine où on essaye de trouver un sens à des (groupes de) neurones particuliers : ce n'est que par chance si on arrive à en trouver un. Une autre itération d'apprentissage peut faire disparaître complètement ces (groupes de) neurones tout en préservant les résultats.

    06:20 - Il affirme justement qu'on a plusieurs niveaux d'abstraction, ce qui est faux, on a différentes représentations de la même information, ce n'est pas la même chose. Tout le raisonnement parlant donc d'identifier des motifs macroscopiques tombe à l'eau.

    07:03 - "Et ici on peut commencer à parler d'intelligence", sauf qu'il se contente de réduire ce concept à de l'apprentissage non-supervisé. Si tu prends n'importe quel ingénieur ou chercheur travaillant avec de l'apprentissage non-supervisé, et si tu lui demandes si sa machine est intelligente, je doute que tu en trouves beaucoup qui disent honnêtement oui. Ils vont plutôt avoir un sourire en coin ou faire une pirouette pour éviter la question qui fait mal, ou annoncer de but en blanc que non, ça ne l'est pas.

    De 08:00 à 12:30, il décrit comment exploiter des raisonnement inductifs et décisionnels pour planifier des actions futurs... qu'il termine en qualifiant de volonté. Argh ! tout ce qu'on a là est une machine qui, uniquement avec ce qui a été présenté dans la vidéo, n'a rien à choisir, et ne fera donc que prévoir ce qui est prévisible et agir de manière prévisible. Il n'y a pas de volonté : si on ne lui a rien donné à faire comme actions, elle continuera de ne rien faire. Si on lui a donné à faire des actions spécifiques, sans lien avec l'environnement, ces actions se verront répétées ad vitam aeternam. Si on lui a donné à faire des actions en fonction de l'environnement, peut-être identifiera-t-elle les corrélations suffisante pour retrouver les actions à produire quand l'environnement s'y prête. Mais on a là uniquement de la reproduction qu'on pourrait au mieux qualifier d'instinctive. Aucune réelle planification, uniquement du calcul dont l'objectif est de converger vers un modèle prévisible. Oublie toute notion liée à une quelconque décision personnelle, comme de l'homéostasie. On n'a là qu'une machine qui cherche à trouver et entretenir un statu-quo et qui, quand elle l'aura trouvé, y restera à vie.

    14:10 "Il commence à se comprendre"... encore un terme lourdement connoté usé sans raison, un raccourci sémantique qui encore une fois donne l'impression que la machine est consciente alors qu'il n'y a aucune abstraction, aucune structuration des données, aucune volonté. C'est une présentation fallacieuse qui amalgame simple calcul et interprétation de ce calcul. En l'occurrence, la machine raisonne sur des données liées à son passé, ses prévisions futures, ses actions, ses propres raisonnement, mais sans qu'aucune distinction réelle ne soit faite entre tout ça : elle ne fait que traiter des bits, sans avoir justement conscience que ces bits représentent son passé, ses prévisions futures, etc. Et comme le raisonnement complet se base sur l'idée qu'on a là une machine qui fait de l'abstraction (et non de la simple compression), on en tire la conclusion qu'elle conceptualise tout ça, ce qui n'en est rien. Donc la conclusion qui suit de "conscience artificielle" ne me plaît absolument pas : cette conclusion s'appuie sur une interprétation fallacieuse de l'autoencodeur (amalgame entre abstraction et compression) alimentée par l'usage de termes qui n'ont rien à faire là, comme l'intelligence, la volonté ou la compréhension.

    Le gros absent de cette machine est justement la volonté, ou plus précisément l'initiative qui en découle. La machine fait des calculs, mais ces calculs ne sont pas dirigés par la machine. La machine ne va pas prendre l'initiative de se fixer un objectif différent de ce dont elle a l'habitude. Elle va juste prévoir un état futur dont elle a l'habitude, état qui inclut l'environnement, ses actions et ses raisonnements.

    De là, deux raisonnement découlent :
    - on admet que l'intelligence ne nécessite pas cette initiative, cette autonomie, cette conscience. C'est ma position. Et quand je travaille sur de l'IA, je le fait sans m'attendre à ce qu'une machine montre un jour ces propriétés. C'est pourquoi le problème de la conscience dans une machine ne m'intéresse pas plus que ça, car pour moi ça n'est pas nécessaire à l'intelligence et c'est cette dernière qui m'intéresse. Je rejoins du coup l'intervenant de la conf d'1h qui dissocie aussi intelligence et conscience.
    - on considère que ces propriétés sont nécessaires à l'intelligence, auquel cas je n'en vois pas la moindre trace ici et cette présentation est donc pour moi très loin du compte. On pourrait me retoquer l'idée de propriété émergente, mais une propriété émergente s'explique par ses composants et leurs interactions. Or je ne vois rien ici qui me permettrait d'expliquer la moindre expérience subjective d'une conscience.

    La conférence de 1h se concentre sur la conscience, et dès 3:26 on entame sa définition. Définition qui me suffit ici car il s'agit de mettre en avant la différence entre l'état où l'on se rend compte de ce qui nous arrive, et l'état opposé, non-conscient (e.g. sommeil, coma). Pour moi, ce ressenti, cette expérience subjective, n'existe pas chez la machine, et peu importe les éléments de traitement d'information complexes qu'on lui rajoutera, cela ne suffira pas à faire émerger une conscience. Tout au plus une simulation de celle-ci, par exemple avec un double mode de fonctionnement, où chaque mode a ses ressources mémoire propres par exemple, et qu'on aura arbitrairement décidé de qualifier l'un de conscient et l'autre non. Tout comme à 7:06, on admet que l'attrape-mouche soit sensible sans être conscient, la machine peut percevoir son environnement et ses états internes sans en avoir conscience. Si la conf conclut qu'il n'y a pas d'interdiction de principe à ce que la machine développe une conscience, cela peut être dû au manque de connaissance sur ce concept. Autrement dit, rien n'interdit non plus à ce que les futures recherches permettent de préciser davantage ce concept, de telle manière à disqualifier toute notion de conscience dans la machine, la limitant au statut de simple outil qui est le sien actuellement.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  13. #33
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Les points 1 et 3 n'ont de valeur que si on donne une intention à la Nature
    non, le point 1 évoque la possibilité que l'espèce humaine soit elle-même le fruit d'un besoin éventuel, tu évacues l'idée en disant que ça n'est pas scientifique (Popper), mais affirmer que la Nature n'a pas d'intention n'est pas plus scientifique puisque rien ne permet de le mesurer. et au delà du mesurable la philosophie (ce qui donc précède les sciences), notamment le courant du panpsychisme, admet l'idée d'un univers conscient comme une position recevable même si l'idée est assez peu défendue, c'est à dire qu'on ne dit pas que c'est le cas, mais seulement que l'idée tient la route dans la cohérence du raisonnement qui la sous-tend.
    en ça le point 1 n'est là que pour montrer qu'affirmer que nous sommes des être "naturels" au sens de "aucun besoin ne précède notre création" n'est pas fondé.

    le point 3 fait référence à ce que tu décris d'un "processus naturel, qui se produit même si personne ne le demande et ensuite on a ce qu'on a, même si ça ne plaît pas".
    c'est faux puisque l'espèce humaine est soumise à la sélection naturelle et que le principe de cette sélection n'est pas d'aboutir à quelque chose mais seulement de produire ces choses, et ensuite "on a ce qu'on a", qui s'adapte à l'environnement ou périt, je ne reprenais l'allusion du fait de "plaire" à la nature que parce que tu l'évoquais.

    Citation Envoyé par Matthieu Vergne Voir le message
    Le point 4 n'est pas de même nature, car ici l'évolution est dirigée par les objectifs humains, ceux-là même qui décident des critères à implémenter dans les algos génétiques (et plus généralement algos évolutionnaires) pour diriger l'évolution vers un résultat souhaité.
    l'évolution n'est pas systématiquement dirigée, c'est même assez rarement le cas, ces simulations mettent en œuvre des modèles dont on cherche à vérifier s'ils collent à ce que l'on perçoit de la réalité (et pour autant que je sache on a pas d'autre moyen de faire de la science, si ça a le gout de la bière, c'est probablement de la bière, jusqu'à preuve du contraire réfutation), mais le modèle en lui-même n'est pas conçu POUR donner un résultat, il découle à la fois de ce que l'on sait et à la fois de ce que l'on propose et qui a comme prérequis non pas de coller à ce que l'on souhaite montrer mais d'être cohérent avec ce que l'on sait déjà.

    Citation Envoyé par Matthieu Vergne Voir le message
    Quant au point 2, (...) la reproduction de base suffit à poser l'argument.
    non, parce qu'il n'est pas tant question de la volonté des parents que de leur "besoin" de recourir à la technologie pour satisfaire cette volonté, le besoin précède donc bien la création de cet enfant, qui n'aurait jamais vu le jour sans le recours à la technologie.

    Citation Envoyé par Matthieu Vergne Voir le message
    Si tu me dis que demain on pourra créer un enfant biologique dont on pourra déterminer la majorité des paramètres, là je te réponds qu'on sera dans le domaine de l'artificiel
    eh bien ici le seul paramètre -mais non des moindres- est celui de l'accès à la vie. sans l'intervention de la technologie (issue d'un besoin donc) cet enfant n'aurait tout simplement pas pu exister, ce qui me semble autrement plus important que de déterminer la couleur des yeux ou des cheveux.


    Citation Envoyé par Matthieu Vergne Voir le message
    on lance les débats alors qu'on ne sait même pas si créer une machine consciente fait sens
    la question a du sens en soi, il est légitime de se la poser, quant à faire sens pour savoir si c'est possible ou non qu'une IA accède à la conscience, je te le répète ; il semble que parmi la foultitude de points de vue, qu'ils soient philosophiques (essentiellement) ou scientifiques (psychologie, biologie évolutionnaire, neurosciences) on tend de plus vers un consensus pour dire à minima que "rien ne s'y oppose".

    Citation Envoyé par Matthieu Vergne Voir le message
    J'ai visionné la vidéo de 20 minutes
    elle a d'autant plus de sens quand on a un vernis minimum sur ce que disent les philosophes, psychologues etc. sur la conscience et son fonctionnement, sans autre prétention que celle d'être "assez correcte".

    Citation Envoyé par Matthieu Vergne Voir le message
    Le gros absent de cette machine est justement la volonté, ou plus précisément l'initiative qui en découle.
    non c'est justement le propos de l'agentivité, cette double flèche bleue entre induction et décision, je te renvoie y compris à la deuxième moitié de la conférence.


    Citation Envoyé par Matthieu Vergne Voir le message
    - on admet que l'intelligence ne nécessite pas cette initiative, cette autonomie, cette conscience. C'est ma position.
    oui, mais ça ne fait pas débat ici à priori, tout le monde s'accorde à dire que l'intelligence et la conscience sont des choses distinctes

    Citation Envoyé par Matthieu Vergne Voir le message
    je ne vois rien ici qui me permettrait d'expliquer la moindre expérience subjective d'une conscience.
    mais ça personne n'est en mesure de l'expliquer pour l'instant, c'est toute la question du "problème difficile de la conscience" de David Chalmers ou encore de la chauve-souris de Thomas Nagel.
    on aura beau savoir tout ce qu'il y a à savoir sur la chauve-souris, le fonctionnement de son écholocalisation etc. on ne saura pour autant jamais "l'effet que ça fait" d'être une chauve-souris, il est question de la conscience phénoménale, cette expérience subjective aussi appelée sentience ou on parle aussi de "qualias", c'est précisément un des principaux points débattus par les philosophes de l'esprit, mais encore une fois quelque soit leur courant de pensée, tous s'accordent à dire que rien ne s'oppose au fait qu'une IA puisse être consciente.

  14. #34
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Je ne parlais pas des robots, mais des "ermites" dont parlait le post qui me précédait directement.

    Quant à l'être tout puissant que tu sembles imaginer, j'attends encore de voir une théorie qui le supporte sans être truffée de trous et de raccourcis en tous genres. Lire des romans c'est bien, les confronter à la réalité c'est mieux.
    Isaac Asimov ne faisait pas de la science-fiction, mais des romans d'anticipation. Il était un passionner de d'intelligence artificielle. Ces trois lois sont des références dans le domaine de l’intelligence artificielle. Par le bais de ces romans, il a fait l'exploration des limitations de ses 3 lois. Ainsi que les impacts probables sur l'humanité. Pour un passionné du sujet, je le dis sans cynisme, cela manque à ta culture. Le type était un professeur en biochimie. Il était très familier avec une démarche scientifique.

    Je ne fais pas de raccourci, je n'emploi que la logique, les raccourcis je les laisse aux qui pensent dès le départ, sans même évaluer les alternatives et les dangers, que les robots devraient être calqué sur l'humain. Il y a plus de narcissisme dans ce choix que de jugement. Avant même de parler de droits. On devrait se questionner sur l'intérêt de lui donné la capacité d'avoir des sentiments.

    Personnellement, les "Vulcains" de la série de Star Trek me semblerait une meilleur modèle. C'est pourtant simple et logique. Un robot ne pourra jamais se rebeller contre les humains si ne possède pas la capacité d'avoir des sentiments. Aucune spéculation, seulement de la logique.

  15. #35
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 211
    Points
    23 211
    Par défaut
    Citation Envoyé par Madmac Voir le message
    Ces trois lois sont des références dans le domaine de l’intelligence artificielle.
    Heu… non.

    Elles sont hyper-connues, oui. Elles sont hyper utilisées dans tout ce qui est débat éthique d'anticipation comme ici.
    Mais je ne les ai jamais vues implémentées dans une IA/robot.

    EDIT:

    https://fr.wikipedia.org/wiki/Trois_..._lui-m%C3%AAme
    https://fr.wikipedia.org/wiki/Trois_...s_%C3%A0_venir

  16. #36
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 264
    Points : 7 760
    Points
    7 760
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Madmac Voir le message
    Isaac Asimov ne faisait pas de la science-fiction, mais des romans d'anticipation. Il était un passionner de d'intelligence artificielle. Ces trois lois sont des références dans le domaine de l’intelligence artificielle. Par le bais de ces romans, il a fait l'exploration des limitations de ses 3 lois. Ainsi que les impacts probables sur l'humanité. Pour un passionné du sujet, je le dis sans cynisme, cela manque à ta culture. Le type était un professeur en biochimie. Il était très familier avec une démarche scientifique.

    Je ne fais pas de raccourci, je n'emploi que la logique, les raccourcis je les laisse aux qui pensent dès le départ, sans même évaluer les alternatives et les dangers, que les robots devraient être calqué sur l'humain. Il y a plus de narcissisme dans ce choix que de jugement. Avant même de parler de droits. On devrait se questionner sur l'intérêt de lui donné la capacité d'avoir des sentiments.

    Personnellement, les "Vulcains" de la série de Star Trek me semblerait une meilleur modèle. C'est pourtant simple et logique. Un robot ne pourra jamais se rebeller contre les humains si ne possède pas la capacité d'avoir des sentiments. Aucune spéculation, seulement de la logique.
    C'est surtout que les lois d'Asimov sont exprimées comme un humain les exprimerai, et non comme une machine pourrait les encoder. Passionné ou pas, en IA la contrainte technique prime sur le concept : si personne ne peut l'implémenter, ça n'est pas de l'IA, que du bla-bla. Exprimer des lois qui sont non implémentables n'a aucun intérêt en dehors du simple débat d'idée. Les lois d'Asimov n'offrent aucune base pertinente vis à vis de l'implémentation d'une machine éthique, c'est aussi simple que ça. La logique ne suffit pas, encore faut-il partir des bons axiomes.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Intelligence artificielle : un robot montre des signes de conscience de soi
    Par Michael Guilloux dans le forum Intelligence artificielle
    Réponses: 43
    Dernier message: 22/05/2021, 20h20
  2. Réponses: 9
    Dernier message: 04/10/2019, 17h09
  3. Une intelligence artificielle peut-elle être un juge juste dans un tribunal ?
    Par Jonathan dans le forum Intelligence artificielle
    Réponses: 9
    Dernier message: 06/04/2019, 11h41
  4. Réponses: 3
    Dernier message: 24/01/2019, 23h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo