Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    L’« IA éthique » pourrait-elle exister ?
    L’« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code,
    Mais ces défis seraient beaucoup plus complexes, selon un auteur

    L’IA est un élément clé dans l’informatique des temps modernes qui a gagné tous les secteurs d’activité dans le monde, que ce soit la santé, le commerce, l’économie, l’éducation, l'automobile, pour ne citer que ceux-là. Mais pendant que certains pensent qu’elle rendra l'homme plus efficace dans son travail, des futuristes y voient une menace pour la démocratie telle que nous la connaissons, mettant en garde contre une époque où l’intelligence artificielle pourra s’améliorer d’elle-même, dépassant ainsi l’homme. D’où la nécessité de la mise en œuvre d’une intelligence artificielle qui serait capable de suivre des normes éthiques. Mais ce défi pourrait s’avérer beaucoup plus complexe, selon un article publié sur OneZero en janvier 2020 par Tom Chatfield, auteur et philosophe technologique britannique.

    Selon Chatfield, les quelques rubriques sur lesquelles les entreprises de l’IA comme Microsoft, IBM et DeepMind de Google basent leurs principes éthiques pour le développement de l’IA consistent dans les points suivants : L'intelligence artificielle doit utiliser l’équité dans le traitement de toutes les personnes, donner à chacun les moyens d'agir, être fiable et sûre, être compréhensible, sécurisée et respectueuse de la vie privée, et avoir une responsabilité algorithmique. Elle doit être conforme aux valeurs humaines existantes, être explicable, être équitable et respecter les droits des utilisateurs en matière de données.


    Elle doit être utilisée à des fins socialement bénéfiques et toujours rester sous un contrôle humain significatif. La responsabilité des créateurs de l’IA est également engagée à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine. Et tout ceci est une bonne chose, selon Chatfield. Il rapporte que les technologues seraient convaincus que les codes d'IA sont des recettes pour automatiser l'éthique elle-même, et qu'une fois que la majorité serait d’accord avec ces codes, « le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu ».

    Selon Chatfield, alors même que le monde prend conscience de l'importance de ce domaine, une tendance troublante est évidente lorsqu'il est question de la manière dont les codes d'éthique de l'IA sont discutés. Pour la simple raison du manque de consensus sur ce qui est éthique, l’auteur dit que nous ne pouvons pas le programmer. « Il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière que tout être rationnel acceptera », a-t-il écrit.

    Pour soutenir sa thèse, l’auteur cite un article paru dans Nature Machine Intelligence de septembre 2019. Selon cet article, alors qu'il y a « une convergence mondiale émergeant autour de cinq principes éthiques (transparence, justice et équité, non-malfaisance, responsabilité et vie privée) », la signification précise de ces principes est toute une autre affaire. Il subsiste « une divergence de fond sur la manière dont ces principes sont interprétés, sur les raisons pour lesquelles ils sont jugés importants, sur la problématique, le domaine ou les acteurs auxquels ils se rapportent et sur la manière dont ils devraient être mis en œuvre ». En d'autres termes, selon Chatfield, les codes éthiques ressemblent beaucoup moins à des codes informatiques que leurs créateurs pourraient le souhaiter.

    Les points de vue éthiques varient en fonction des priorités, selon l’auteur

    Pour le philosophe technologique, la question d’IA éthique sera encore longtemps débattue, en grande partie parce qu'il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière qui convienne à tout être rationnel. En fonction de vos priorités, vos points de vue éthiques seront inévitablement incompatibles avec ceux de certaines autres personnes d'une manière qu'aucun raisonnement ne pourra résoudre, écrit-il.

    « Qui, alors, peut dire à quoi ressemble un équilibre optimal entre vie privée et sécurité - ou ce que l'on entend par un objectif socialement bénéfique ? Et si nous ne pouvons pas nous entendre sur ce point entre nous, comment pouvons-nous apprendre à une machine à incarner des valeurs "humaines" ? », s’est-il interrogé.

    L’auteur rapporte que la plupart des codes éthiques d'IA existants reconnaissent de différentes manières la difficulté à mettre en œuvre une IA éthique. Selon lui, DeepMind reconnaît que « différents groupes de personnes ont des valeurs différentes, ce qui signifie qu'il est difficile de s'accorder sur des principes universels ». Par conséquent, « la collaboration, la diversité de pensée et un engagement public significatif sont essentiels si nous voulons développer et appliquer l'IA pour un bénéfice maximum », a déclaré DeepMind. Selon l’auteur, cette déclaration est une franchise louable, mais pour lui l’IA éthique n’existe pas.


    En 2019, le comité d’éthique de l’IA que Google a mis en place a été dissout une semaine après, après de nombreuses controverses à son encontre. Plusieurs membres du conseil faisaient l’objet de critiques de la part de communauté, de certains employés de la société elle-même et d’autres personnalités influentes. Des milliers d’employés de Google ont signé une pétition appelant à la destitution d’un membre du conseil d’administration, la présidente de la Heritage Foundation, Kay Coles James, pour ses commentaires sur les personnes transgenres et le scepticisme de son organisation à l’égard des changements climatiques.

    L’"IA éthique" n’existe pas, de même qu’un ensemble unique d'instructions indiquant comment être bon, d’après Chatfield

    « C'est le fait qu'il n'existe pas d'IA éthique, pas plus qu'il n'existe un seul ensemble d'instructions indiquant comment être bon - et que notre fascination actuelle pour l'"intérieur" des processus automatisés ne fait que nous éloigner davantage des contextes humains contestés dans lesquels les valeurs et les conséquences existent réellement », écrit-il.

    En 2018, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui prendrait en compte d’autres contraintes telles que les règles éthiques et comportementales en plus des préférences de l’utilisateur. Les chercheurs ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants.

    Les chercheurs ont toutefois rappelé qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, en ce qui concerne le modèle des chercheurs, un arbitre a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus. En ce qui concerne l’avis de Chatfield, on pourrait se demander comment définir cet arbitrage pour rencontrer les intérêts de tous.

    Après une série de consultations qui a duré 15 mois avec des acteurs de l’industrie civile, le gouvernement, le monde académique et les citoyens américains, le Département américain de la Défense a publié en février dernier cinq principes éthiques que l’armée américaine s’engage à observer dans l’utilisation de l’intelligence artificielle. Cet effort a été placé sous le signe de la sauvegarde d’un « ordre mondial fondé sur des règles » dans le cadre des investissements massifs des États-Unis et de leurs alliés pour la maîtrise de l’IA au service de la sécurité nationale et internationale. Encore là, les règles de l’éthique sont fonction d’un objectif bien défini.

    « N'oublions pas que nous savons déjà ce que veulent beaucoup des systèmes automatisés les plus puissants du monde, dans le sens des fins auxquelles ils sont destinés : l'augmentation de la valeur actionnariale pour des entreprises comme Google, Amazon et Facebook, et l'autonomisation des États totalitaires technocratiques comme la Chine. Toute discussion sérieuse sur ces systèmes exige une attention lucide aux objectifs qu'ils poursuivent et aux conséquences vécues de ceux-ci. En d'autres termes, le défi est avant tout politique et social, et non technologique », a écrit Chatfield.

    Selon le point de vue de l'auteur, nous ne sommes pas d'accord sur ce qui est éthique, alors il sera difficile de le programmer. Mais selon un commentateur, les modèles IA d'aujourd'hui ne sont pas un mécanisme permettant de comprendre et d'équilibrer une multitude d'intérêts et d'exigences. « Elles sont en fait des machines de reconnaissance de formes, qui font correspondre des données à des catégories (ou des résultats, etc.). Ainsi, même si vous aviez formulé certains critères, une IA ne pourrait pas vraiment faire cela », a-t-il écrit. Et vous, qu’en pensez-vous ?

    Source : Billet Blog de Tom Chatfield

    Et vous ?

    Qu’en pensez-vous ?
    L’IA éthique n’existe pas, selon Tom Chatfield. Quel commentaire en faites-vous ? Que pensez-vous des arguments de Tom Chatfield ?
    Selon vous, quelles sont les difficultés qu’il y a à programmer une IA éthique ?

    Lire aussi

    Le PDG de Google, Sundar Pichai, déclare qu'il ne fait aucun doute que l'IA doit être réglementée, au risque de laisser les forces du marché décider comment utiliser ces technologies
    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique, a été mis au point par des chercheurs d'IBM et du MIT
    Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dans le domaine militaire
    Des chercheurs se penchent sur l'IA éthique
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert
    "Les technologues"... C'est encore une nouvelle race de fainéants ?

    Sont-ce des cousins ou de proches parents des technocrates ?

  3. #3
    Membre éclairé
    Get woke go broke

  4. #4
    Expert éminent
    Citation Envoyé par Stan Adkens Voir le message
    L’IA éthique n’existe pas, selon Tom Chatfield. Quel commentaire en faites-vous ? Que pensez-vous des arguments de Tom Chatfield ?
    L'IA éthique, on ne s'y intéresse vraiment que depuis quelques années. Ce n'est pas suffisant pour donner la moindre garantie, ni dans un sens ni dans l'autre. Pour autant, l'idée d'implémenter des valeurs humaines, ça fait longtemps qu'on essaye... et on essaye encore. Si on devait choisir entre exister et ne pas exister, le second est donc le moins osé.

    Citation Envoyé par Stan Adkens Voir le message
    Selon vous, quelles sont les difficultés qu’il y a à programmer une IA éthique ?
    La première difficulté est, comme souligné, l'incapacité de donner une définition précise aux concepts qu'on souhaite implémenter. Sans ça impossible de formaliser, et donc de coder. Ou disons plutôt que sans ça c'est libre court aux interprétations. C'est un problème de fond déjà en IA, où personne n'est capable de définir précisément la notion d'intelligence de manière consensuelle. C'est ce qui fait que c'est parti dans tous les sens avec de nombreuses promesses non tenues. Cela n'empêche pas de créer des outils performants, mais on attend toujours de voir quelque chose d'intelligent sortir de ce brouhaha technologique. Si le sous-domaine de l'IA éthique part sur le même problème, je m'attend aux même conséquences : on trouvera certainement des outils performant, mais on attendra sûrement longtemps avant d'identifier un agent éthique, qu'il soit intelligent ou non.

    Pour autant, il n'est pas impossible de simuler, et les systèmes d'apprentissage font justement cela : à partir d'un comportement observé, le système mimique ce comportement. En apparence, cela peut donner même un comportement éthique, mais ça n'en sera jamais un car aucune règle éthique n'est suivi : ce n'est que de la reproduction comportementale, tout à fait agnostique des principes sous-jacents.

    La question est alors de savoir si on peut arriver à établir des définitions précises ou si on ne pourra jamais faire mieux que de simuler.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})