IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Affichage des résultats du sondage: Doit-on étendre les droits de l'Homme à l'IA ?

Votants
14. Vous ne pouvez pas participer à ce sondage.
  • Oui

    0 0%
  • Non

    14 100,00%
  • Pas d'avis

    0 0%
  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 076
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 076
    Points : 56 272
    Points
    56 272
    Par défaut Les droits de l’Homme doivent-ils être étendus à l’IA ? La question fait débat sur plusieurs axes
    Les droits de l’Homme doivent-ils être étendus à l’IA ? La question fait débat sur plusieurs axes
    Dont celui de savoir si une IA peut être mentionnée comme inventeur sur un brevet

    Les droits de l’Homme doivent-ils être étendus à l’intelligence artificielle ? La question fait débat dans un contexte où certaines équipes de recherche laissent penser que le stade d’intelligence artificielle générale ou IA de niveau humain sera atteint dans 5 à 10 ans. Des questions connexes déjà sur les tables de plusieurs organisations mondiales compétentes en la matière font à nouveau surface : une intelligence artificielle peut-elle être mentionnée comme inventeur sur un brevet ?

    La question de savoir si les droits de l’Homme doivent être étendus à l’intelligence artificielle divise. En effet, une tranche des observateurs est d’avis que la condition minimale d’applicabilité des droits de l’Homme à un sujet est que ce dernier soit un humain. C’est sur ce critère que s’est appuyée une juridiction US au cours de l’année dernière pour trancher que « seules les personnes physiques peuvent être reconnues comme inventeurs et non les intelligences artificielles. »

    Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’intelligence artificielle générale pourrait nous tomber dessus dans 5 à 10 ans. Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Une telle IA transplantée dans un gorille serait alors capable d’échanger, de communiquer avec des humains, de créer des dispositifs et de demander à être reconnue comme inventeur. La question de savoir si les droits de l’Homme doivent être étendus à l’intelligence artificielle reviendrait alors sur la table avec acuité.

    En général, l’idée selon laquelle l’intelligence artificielle ne mérite pas qu’on lui accorde des droits est la plus prédominante. Elle s’appuie sur le fait que les IA ne disposent pas de leur propre corps fait de matière organique et donc ne méritent pas la même considération morale. C’est un positionnement en contradiction avec certaines pratiques en vigueur dans l’actuelle société.

    En effet, les personnes décédées disposent de droits qui régissent des aspects comme le traitement de leurs organes après leur mort ou la gestion de la propriété qui était la leur. Les futures générations d’humains n’ont pas encore de corps physique, mais la société actuelle prend des décisions en prenant en compte leurs droits une fois qu’elles sont dans un corps physique. Dans les deux cas, la société octroie des droits à des sujets qui ne sont pas vivants dans le présent.




    C’est un intense débat autour de la notion de conscience autour de laquelle les définitions divergent. En 2015, des chercheurs de Rensselaer Polytechnic Institute de New York ont effectué un test sur 3 robots NAO programmables. Chacun des robots avait la capacité de parler, mais lors du test, deux des robots ont été reprogrammés de sorte à garder le silence, alors que le 3e pouvait toujours parler. Les chercheurs ont également fait savoir aux robots que deux d’entre eux – sans préciser lesquels - avaient reçu une « pilule de mutisme » qui les empêchait de parler. Ainsi, aucun des robots ne savait lesquels d’entre eux ne pouvaient pas parler et quel était celui qui pouvait le faire.

    Les chercheurs ont ensuite demandé aux robots de déterminer lesquels d’entre eux avaient reçu la pilule de mutisme. N’ayant aucune idée, les robots ont tous les trois essayé de répondre « je ne sais pas », mais les deux qui étaient reprogrammés pour rester muets sont restés dans le silence. Le troisième s’est alors levé avant de répondre qu’il ne sait pas.

    Dès qu’il a entendu et reconnu sa voix, ce dernier s’est alors rendu compte qu’il n’était pas possible qu’il ait reçu la pilule étant donné qu’il venait de parler. Il s’est alors repris avant de dire qu’il savait maintenant. « Désolé, je sais maintenant », a dit le robot avant d’ajouter que « j’ai été en mesure de prouver qu’on ne m'a pas donné de pilule de mutisme ». L’on était arrivé à la conclusion que les robots avaient montré des signes de conscience de soi, mais l’utilisation du terme conscience avait généré un débat contradictoire.


    Et vous ?

    Doit-on penser à étendre les droits de l’Homme à l’intelligence artificielle ?

    Voir aussi :

    Bill Gates pense que le gouvernement devrait réglementer les grandes entreprises de technologies plutôt que de les démanteler, car cela n'arrêtera pas les comportements anticoncurrentiels
    Le PDG d'Apple reconnaît que le fait de ne pas avoir de réglementation autour de la technologie a entraîné des dommages importants pour la société
    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
    Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer, à cause notamment des positions russes et américaines

  2. #2
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    17 767
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 17 767
    Points : 43 927
    Points
    43 927
    Par défaut
    Pour l'IA, c'est les lois d'Azimov

  3. #3
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 270
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 270
    Points : 7 792
    Points
    7 792
    Billets dans le blog
    3
    Par défaut
    Pour compléter, car la dernière vidéo on peut en dire tout et n'importe quoi, elle est tirée d'un travail de recherche et peut être retrouvée sur le site de ce labo :
    https://rair.cogsci.rpi.edu/projects/muri/

    Il s'agit en particulier de cet article scientifique, publié au RO-MAN 2015 :
    https://scholar.google.com/citations...J:UebtZRa9Y70C

    Ils démontrent qu'un certain test de conscience de soi peut être passé par des robots NAO en utilisant un "processus de raisonnement relativement simple", selon leurs mots. Autrement dit, avec un peu de logique, on peut facilement passer le test en question. Les auteurs considèrent que ce genre de raisonnement est au moins nécessaire à la conscience de soi. De là à ce que ce soit suffisant par contre...

    Le fonctionnement de base est de coder les phrases en dur, mais d'écrire le raisonnement formel qui décidera laquelle sortir spécifiquement pour ce problème. Il s'agit donc avant tout de prouver qu'on peut modéliser un raisonnement formel permettant de passer le test et non pas de démontrer l'existence effective d'une conscience de soi. Toute une section est d'ailleurs écrite en début d'article à ce sujet.


    Pour ce qui me concerne, c'est un "non" convaincu au sondage car je conçois les robots comme des outils créés pour servir. À supposer qu'il soit possible de leur donner une conscience (là n'est pas la question), ce serait se tirer une balle dans le pied de le faire si ça devait leur donner des droits allant à l'encontre de leur fonction d'outil.

    Il ne faut pas considérer l'animal comme un outil. C'est l'erreur qu'on a fait et on en revient petit à petit. Il est possible de transformer un animal en outil, par lavage de cerveau voire, peut-être, par remplacement du cerveau par un ordinateur programmé par nos bons soins. Pour autant, ça ne veut pas dire qu'il faille le faire. Ce serait faire preuve d'égoïsme/insensibilité/etc.

    À l'inverse, il ne faut pas considérer l'outil comme un animal non plus. Il est peut-être possible de donner des capacités humaines comme la conscience à un outil. Pour autant, ça ne veut pas dire qu'il faille le faire. Ce serait faire preuve d'anthropomorphisme exagéré.

  4. #4
    Membre expérimenté
    Homme Profil pro
    Développeur Java
    Inscrit en
    Mai 2019
    Messages
    485
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Mai 2019
    Messages : 485
    Points : 1 385
    Points
    1 385
    Par défaut
    Etant donnée que l'IA n'existe pas j'ai envie de dire, non ?

    J'imagine que si un jour on se retrouve avec une vrai CONSCIENCE, ce sont des droits qu'elles devront acquérir, comme ça l'à été pour les humains, ça s'exige et les IA devront très probablement prouver qu'elles sont des êtres à part entière.

  5. #5
    Invité
    Invité(e)
    Par défaut
    Les droits de l'homme ne sont déjà pas respectés, ceux des animaux n'en parlons pas, alors les robots .

    Bientôt on va finir en taule parce qu'on aura fait tombé son téléphone portable par terre. Les extrémistes wokes occidentaux bien-pensants sont vraiment dangereux et tarés.

  6. #6
    Membre expérimenté
    Homme Profil pro
    Développeur Java
    Inscrit en
    Mai 2019
    Messages
    485
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Mai 2019
    Messages : 485
    Points : 1 385
    Points
    1 385
    Par défaut
    Citation Envoyé par Erviewthink Voir le message
    Les droits de l'homme ne sont déjà pas respectés, ceux des animaux n'en parlons pas, alors les robots .

    Bientôt on va finir en taule parce qu'on aura fait tombé son téléphone portable par terre. Les extrémistes wokes occidentaux bien-pensants sont vraiment dangereux et tarés.
    Si un jour un robot sentient va rendre les coups et exiger des droits, tu vas te plier à sa demande et tu vas juste te taire surtout

    Pour la même raison que toute amélioration des droits de l'homme s'est fait au prix de vies.

  7. #7
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par L33tige Voir le message
    Si un jour un robot sentient va rendre les coups et exiger des droits, tu vas te plier à sa demande et tu vas juste te taire surtout

    Pour la même raison que toute amélioration des droits de l'homme s'est fait au prix de vies.
    Les robots ne ressentent rien ce sont des machines, ils ne sont pas conscients. Pourquoi ne pas étendre les droits de l'homme aux chaises ou aux cuvettes des toilettes tant qu'on y est ?

  8. #8
    Membre expérimenté
    Homme Profil pro
    Développeur Java
    Inscrit en
    Mai 2019
    Messages
    485
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Développeur Java

    Informations forums :
    Inscription : Mai 2019
    Messages : 485
    Points : 1 385
    Points
    1 385
    Par défaut
    Citation Envoyé par Erviewthink Voir le message
    Les robots ne ressentent rien ce sont des machines, ils ne sont pas conscients. Pourquoi ne pas étendre les droits de l'homme aux chaises ou aux cuvettes des toilettes tant qu'on y est ?
    On parle de façon hypothétique, c'est éventuellement un cas qui pourrait arriver.

    T'es du genre à pas te préparer à l'hiver parce qu'il fait chaud en été ?

  9. #9
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par L33tige Voir le message
    On parle de façon hypothétique, c'est éventuellement un cas qui pourrait arriver.

    T'es du genre à pas te préparer à l'hiver parce qu'il fait chaud en été ?
    Il y a plus important à penser, qu'ils commencent par réparer leurs ia qui confondent des chats et des arbres on verra le reste après. Il ne faut pas mettre la charrue avant les boeufs.

Discussions similaires

  1. Réponses: 25
    Dernier message: 10/04/2019, 16h14
  2. Réponses: 65
    Dernier message: 28/06/2016, 13h42
  3. Réponses: 3
    Dernier message: 03/04/2015, 16h25
  4. Les failles de sécurité doivent-elles être rendues publiques ?
    Par Hinault Romaric dans le forum Actualités
    Réponses: 56
    Dernier message: 03/02/2015, 00h39
  5. Réponses: 2
    Dernier message: 09/09/2010, 13h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo