Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    juin 2016
    Messages
    818
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 818
    Points : 23 676
    Points
    23 676

    Par défaut Gartner : 75 % des grandes entreprises vont recruter des experts IA en criminalistique comportementale

    Gartner : 75 % des grandes entreprises vont recruter des experts IA en criminalistique comportementale
    pour réduire le risque d'image d'ici 2023

    L’intelligence artificielle (IA) s’infiltre de plus en plus dans les domaines d’activités de l’homme et l’une des questions les plus posées du moment concerne l’équité de l’IA. Beaucoup d’initiatives ont été entreprises ces dernières années pour établir des règles d’éthique auxquelles doit répondre une intelligence artificielle, mais la question reste toujours des plus critiques en raison des nombreux biais que peut contenir cette technologie, ainsi que d’autres problèmes. Selon Gartner, d’ici 2023, 75 % des grandes entreprises se verront obliger de recruter des experts en criminalistique comportementale pour réduire le risque lié à leur marque et à leur réputation.

    Les entreprises qui proposent des solutions d’intelligence artificielle et de machine learning (ML) ou apprentissage automatique se sont considérablement multipliées depuis la dernière décennie, ce qui amène certaines personnes à désigner l’IA comme l’argument marketing du moment. Selon le cabinet d’étude Gartner, la confiance des utilisateurs dans les solutions d’intelligence artificielle et d’apprentissage automatique est en chute libre à mesure que des incidents de violation irresponsable de la vie privée et de mauvaise utilisation des données se produisent. Un problème que les entreprises utilisant l’intelligence artificielle devront résoudre afin de garder et fructifier leurs clientèles.

    D’après Gartner, les préjugés fondés sur la race, le sexe, l’âge ou l’emplacement, ainsi que les préjugés fondés sur une structure de données spécifique, constituent depuis longtemps un risque pour les modèles de formation à l’IA. En outre, la question sur l’équité de l’IA ne bénéficiant pas encore de règles standard, des algorithmes opaques tels que l'apprentissage en profondeur peuvent incorporer dans leurs prédictions de nombreuses interactions implicites extrêmement variables qui peuvent être difficiles à interpréter. Ainsi, Gartner souligne que les entreprises vont devoir s’offrir les services de spécialistes en criminalistique et en équité de l’IAe et du ML si elles veulent faire face à ces divers problèmes.

    Nom : gartner-magic-quadrant.jpg
Affichages : 898
Taille : 23,8 Ko

    « De nouveaux outils et compétences sont nécessaires pour aider les entreprises à identifier ces biais et d’autres sources potentielles de biais, à renforcer la confiance dans l’utilisation des modèles d’IA et à réduire les risques de marque et de réputation », a déclaré Jim Hare, vice-président de la recherche chez Gartner. « De plus en plus de responsables des données et d'analyse et de directeurs des données recrutent des enquêteurs en criminalistique et en éthique de niveau ML », a-t-il ajouté. Ces spécialistes sont chargés de valider les modèles pendant la phase de développement et ils doivent continuer à les surveiller une fois qu'ils sont mis en production, car des biais inattendus peuvent être introduits en raison de la divergence entre la formation et les données du monde réel.

    Gartner donne l’exemple des organisations telles que Facebook, Google, Bank of America, MassMutual et la NASA qui recrutent ou qui ont déjà nommé des spécialistes de la criminalistique du comportement d'IA qui se concentrent principalement sur la découverte de biais non désirés dans les modèles d'IA avant leur déploiement. D’après le cabinet, cette pratique va s’étendre à 75 % des entreprises dans le monde d’ici les 5 prochaines années. « Bien que le nombre d'organisations qui engagent des enquêteurs en criminalistique et en éthique de niveau ML reste faible aujourd'hui, ce nombre s'accélérera au cours des cinq prochaines années », a ajouté Jim Hare, vice-président de la recherche chez Gartner.

    D'un côté, les prestataires de services de conseil vont lancer de nouveaux services pour vérifier et certifier que les modèles ML sont explicables et respectent des normes spécifiques avant que les modèles ne soient mis en production. D'autre part, Gartner a notifié que des outils open source et commerciaux spécifiquement conçus pour aider les enquêteurs du ML à identifier et à réduire les préjugés sont en train de faire leur apparition sur le marché. En effet, rapporte le cabinet d’étude, certaines entreprises ont lancé des outils d’explicabilité de l’intelligence artificielle destinés à aider leurs clients à identifier et à corriger les biais des algorithmes d’intelligence artificielle.

    De plus, les fournisseurs commerciaux de plateformes IA et ML ont ajouté des fonctionnalités permettant de générer automatiquement des explications de modèle en langage naturel. Il existe également des technologies à code source ouvert telles que LIME (Local Interpretable Model-Agnostic Explanations) qui peuvent rechercher une discrimination involontaire avant qu'elle ne soit intégrée à des modèles. Ces outils, parmi d’autres, a expliqué Gartner, peuvent aider les enquêteurs du ML à examiner « l’influence des données » de variables sensibles telles que l’âge, le sexe ou la race sur d’autres variables d’un modèle.

    « Ils peuvent mesurer le degré de corrélation existant entre les variables pour déterminer si elles faussent le modèle et ses résultats », a continué d’expliquer Jim Hare. L’autre chose sur laquelle informe Gartner est que les responsables des données et de l'analyse et les CDO (Chief Data Officer) ne sont pas à l'abri des problèmes liés au manque de gouvernance et aux erreurs de l'IA. Selon Jim Hare, le vice-président des recherche du cabinet, ces responsables doivent intégrer l'éthique et la gouvernance dans les initiatives d'IA et créer une culture d'utilisation responsable, de confiance et de transparence. Ils doivent également promouvoir la diversité dans les équipes, les données et les algorithmes d'intelligence artificielle, ainsi que les compétences relationnelles.

    « Les responsables des données et de l'analyse doivent aussi établir la responsabilité pour déterminer et mettre en œuvre les niveaux de confiance et de transparence des données, des algorithmes et des résultats pour chaque cas d'utilisation. Il est nécessaire qu’ils incluent une évaluation des caractéristiques d’explicabilité de l’IA lors de l’évaluation des outils d’analyse, de veille stratégique, de science des données et de plateformes ML », a conclu Jime Hare.

    Source : Gartner

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    Gartner démystifie cinq idées fausses sur l'intelligence artificielle ou « IA », l'argument marketing du moment, d'après l'un des inventeurs de Siri

    D'ici 2021, 70 % des entreprises intégreront l'IA pour assister les employés dans leurs tâches et augmenter leur productivité

    La France bannit les IA de prédiction des comportements des juges. Les technologies de justice prédictive sont-elles une menace pour la société ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    mars 2013
    Messages
    561
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mars 2013
    Messages : 561
    Points : 844
    Points
    844

    Par défaut

    D’après Gartner, les préjugés fondés sur la race, le sexe, l’âge ou l’emplacement, ainsi que les préjugés fondés sur une structure de données spécifique
    Bah il suffit juste de retirer les colonnes du jeux de données pour ne pas que l'algo apprenne dessus, c'est aussi simple que ça.

Discussions similaires

  1. Réponses: 59
    Dernier message: 25/10/2018, 16h58
  2. Réponses: 5
    Dernier message: 08/04/2017, 14h04
  3. Réponses: 3
    Dernier message: 02/01/2017, 19h56
  4. Réponses: 20
    Dernier message: 26/01/2011, 18h38
  5. Réponses: 0
    Dernier message: 25/01/2011, 12h27

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo