Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    juin 2016
    Messages
    703
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 703
    Points : 21 433
    Points
    21 433

    Par défaut Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial

    Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial
    selon l'Union européenne

    L’automatisation dans les entreprises s’accélère à une vitesse remarquable dans tous les secteurs d'activités dans le monde. Les entreprises, les institutions et même les gouvernements misent désormais énormément sur les nouvelles technologies et plus encore, sur celles reposant sur l’intelligence artificielle (IA). Cela a entraîné une multiplication du nombre d’entreprises qui développent des solutions d’IA que ce soit en Europe, aux États-Unis et partout dans le monde. Cet engouement de la part des entreprises et des États pour l’IA soulève néanmoins quelques problèmes notamment ceux propres à l’éthique. Ainsi, les organisations comme la Commission européenne et d’autres sur les autres continents se hâtent pour se doter de lois pouvant encadrer cette technologie que beaucoup de personnes pensent être quelque peu dangereuse pour l’homme.

    Même si l’IA offre à l’homme des avantages incontestables, elle pose également un certain nombre de problèmes comme celui de la responsabilité ou encore de l’éthique. La question de l’éthique de l’IA est devenue une actualité très récurrente ces derniers temps. Pour Elon Musk, l’IA est plus dangereuse que l’arme nucléaire et Bill Gate la voit à la fois dangereuse et porteuse d’espoir. « L’IA est plus dangereuse que les ogives nucléaires et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Je ne suis pas normalement un partisan de la réglementation et de la surveillance, mais je pense qu’on ne devrait pas minimiser ces choses-là. Il s’agit d’une situation où le public court un très grave danger », a prévenu le patron de Tesla à la conférence South by Southwest (SXSW) cette année.

    Cette réglementation dont il parle, beaucoup y ont pensé, les grandes firmes de technologie comme les institutions et les gouvernements. Le côté le plus abordé de ces problèmes a été depuis, les questions d’éthique que pose la technologie. Google, qui est l’un des premiers à organiser des assises sur ce fait, a pour sa part établi cette année un comité dédié à l’analyse de l'équité de l’IA que la société s'emploiera à consulter dans les années à venir pour développer ses solutions d’IA. Seulement, après une semaine et à la suite de vives contestations par rapport à la légitimité des membres qui composent ce comité, l’entreprise n’a pas eu d’autre choix que de dissoudre pour l’heure ce comité. D’autres ont fait remarquer que la question par rapport à l’éthique que souligne l’IA est plus difficile à cerner par un simple comité.

    Nom : z1.jpeg
Affichages : 1340
Taille : 9,1 Ko

    « Il est devenu évident que dans l'environnement actuel, ATEAC (Conseil consultatif externe sur les technologies de pointe) ne peut pas fonctionner comme nous le souhaitions. Nous dissolvons donc le conseil et retournons à la case départ. Nous continuerons d'être responsables de notre travail sur les questions importantes soulevées par l'intelligence artificielle et trouverons différents moyens d'obtenir des avis extérieurs sur ces sujets », a déclaré la société dans un communiqué la semaine dernière. Lorsqu’on touche du doigt les institutions, on peut citer la Commission européenne et les actions entreprises par cette dernière depuis l’année antérieure pour stimuler le développement de l’IA et mettre en place un système de suivi de la technologie.

    À travers son centre de connaissances sur l'IA, AI Watch, la Commission européenne avait affirmé son engagement à assurer le suivi du développement de l'IA en Europe et de la mise en œuvre d’un plan coordonné au niveau de tous les États membres de l’Union. L’un des points principaux dans la vision de la Commission européenne énonçait la nécessité de développer une IA éthique et digne de confiance. Ainsi, la Commission a travaillé et mis en place un ensemble de règles pour inciter les entreprises technologiques des États membres de l’Union à développer une IA éthique et digne de confiance. Pour la Commission et le groupe d’experts ayant travaillé à la mise en place des lignes directives sur l’éthique en matière d’intelligence artificielle, une IA digne de confiance devra respecter toutes les lois et tous les règlements applicables ainsi que la série d'exigences qu’ils ont établies.

    Chaque solution ou chaque technologie basée sur l’IA doit se conformer désormais à la liste d’évaluation spécifique et à chacune des exigences clés ci-dessous :

    • agence humaine et supervision : les systèmes d'IA devraient permettre la création de sociétés équitables en soutenant l'action humaine et les droits fondamentaux, et non pas réduire, limiter ou égarer l'autonomie humaine ;
    • robustesse et sécurité : l'IA de confiance exige que les algorithmes soient suffisamment sûrs, suffisamment fiables et robustes pour traiter les erreurs ou incohérences au cours de toutes les phases du cycle de vie des systèmes d'IA ;
    • protection de la vie privée et gouvernance des données : les citoyens devraient avoir le plein contrôle de leurs propres données, tandis que les données les concernant ne seront pas utilisées pour les nuire ou les discriminer ;
    • transparence : la traçabilité des systèmes d’IA devrait être assurée ;
    • diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte l’ensemble des capacités, compétences et exigences humaines et en garantir l’accessibilité ;
    • bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour favoriser un changement social positif et renforcer la durabilité et la responsabilité écologique ;
    • responsabilité : des mécanismes devraient être mis en place pour garantir la responsabilité des systèmes d'IA et de leurs résultats.

    Cela dit, pour l’UE, les entreprises travaillant sur l'intelligence artificielle doivent mettre en place des mécanismes de responsabilisation afin d'éviter leur utilisation abusive. De plus, explique Reuters, les projets d'intelligence artificielle doivent être transparents, soumis à un contrôle humain, à des algorithmes sûrs et fiables, et ils doivent être soumis aux règles de protection de la vie privée et des données. « La dimension éthique de l'intelligence artificielle n'est pas une fonctionnalité de luxe ou un ajout. C’est seulement avec confiance que notre société pourra tirer pleinement parti des technologies », a déclaré Andrus Ansip, responsable du numérique à la Commission, dans un communiqué hier.

    L’UE a indiqué qu’elle lancera dès juin prochain une phase pilote du projet. La Commission lancera une phase pilote qui va associer un large éventail de parties prenantes. Selon les explications de la Commission, les entreprises, les administrations publiques et les organisations peuvent adhérer à l'Alliance européenne sur l’IA et recevoir une notification lorsque la phase pilote démarre. Ainsi, au début de l’année 2020, le groupe d'experts sur l'IA examinera les listes d'évaluation des principales exigences en s'appuyant sur les commentaires reçus pendant la phase pilote. Sur la base de cet examen, la Commission évaluera les résultats et proposera les prochaines étapes.

    Le président d'IBM Europe, Martin Jetter, qui fait partie du groupe d'experts a déclaré que les directives établissaient une norme mondiale pour les efforts visant à faire progresser l'IA de manière éthique et responsable. Cependant, Achim Berg, président de BITKOM, l'association fédérale allemande de la technologie de l'information, des télécommunications et des nouveaux médias a pour sa part indiqué que les lignes directrices ne devraient pas retenir l'Europe. « En Allemagne et en Europe, nous devons veiller à ce que nous ne discutions pas seulement d'IA, mais que nous en fabriquions », a-t-il déclaré.

    Sources : Reuters, Rapport AI Ethics Guidelines

    Et vous ?

    Que pensez-vous des propositions de l'EU ?

    Voir aussi

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

    IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu

    Google dissout son conseil d'éthique de l'IA une semaine à peine après sa mise en place suite à un mouvement collectif d'indignation
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    novembre 2010
    Messages
    2 762
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : novembre 2010
    Messages : 2 762
    Points : 7 535
    Points
    7 535

    Par défaut

    Citation Envoyé par Bill Fassinou Voir le message
    Chaque système basé sur l'intelligence artificielle doit être responsable, explicable et impartial selon l'Union européenne
    (...)
    Que pensez-vous des propositions de l'EU ?
    que l'europe c'est pas si mal que ça ?
    Avant donc que d'écrire, apprenez à penser.
    Selon que notre idée est plus ou moins obscure, l'expression la suit, ou moins nette, ou plus pure.
    Ce que l'on conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément.
                                                        - Nicolas Boileau, L'Art poétique

  3. #3
    Membre éprouvé
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    426
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2007
    Messages : 426
    Points : 983
    Points
    983

    Par défaut

    Rien que le titre laisse songeur. En plus une europe basé sur l'ultra libéralisme...

  4. #4
    Membre expert Avatar de marsupial
    Homme Profil pro
    DevOp, Tech leader
    Inscrit en
    mars 2014
    Messages
    1 002
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : DevOp, Tech leader

    Informations forums :
    Inscription : mars 2014
    Messages : 1 002
    Points : 3 511
    Points
    3 511

    Par défaut

    Un cadre évitera-t-il les Cambridge analytica et robots-tueurs ?
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  5. #5
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    mars 2013
    Messages
    545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mars 2013
    Messages : 545
    Points : 812
    Points
    812

    Par défaut C'est n'importe quoi !

    responsable : Du coup si je fais un virus, j'ai qu'à dire que c'est une IA et ce n'est plus ma responsabilité mais cette du programme ? Je comprends pas...

    explicable : À qui ? Car s'il faut expliqué 30 ans de recherche en intelligence artificielle au premier venu ça va être compliqué

    impartial : Ça veut tout et rien dire... Et on pourrait dire exactement la même chose pour n'importe quelle programme, ça ne change absolument rien que ce soit une IA ou non. Exemple, l'ago Parcoursup

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    janvier 2014
    Messages
    664
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : janvier 2014
    Messages : 664
    Points : 2 781
    Points
    2 781

    Par défaut

    C'est du blabla politique sans intérêt et qui aura aucun impact réel.

    Il faut bien que ces parasites justifient leurs salaires et avantages en natures mirobolants payés à nos frais en essayant de faire du vent.
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

Discussions similaires

  1. Réponses: 1
    Dernier message: 20/12/2018, 21h31
  2. Réponses: 0
    Dernier message: 24/08/2018, 01h10
  3. [sondage]Tpe sur l'intelligence artificielle
    Par tpe.ia.2011 dans le forum Interviews
    Réponses: 4
    Dernier message: 10/01/2012, 18h45
  4. Réponses: 2
    Dernier message: 28/02/2011, 20h45
  5. Cours, tutoriels et ressources sur l'intelligence artificielle
    Par Community Management dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 03/05/2008, 17h29

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo