Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 756
    Points : 21 291
    Points
    21 291
    Par défaut Le manque de confiance dans les données conduit à des défaillances de l'IA, selon une nouvelle enquête
    Le manque de confiance dans les données conduit à des défaillances de l'IA,
    Selon une nouvelle enquête

    Les données sont devenues un élément essentiel de presque tous les aspects des activités des entreprises et la quantité de données augmente rapidement. Cependant, selon une nouvelle enquête, si ces données et l’explosion de leur volume sont aussi devenues essentielles pour soutenir l'avenir de l'intelligence artificielle et accélérer l'automatisation de l'analyse des données, elles créent également les obstacles auxquels les entreprises sont actuellement confrontées dans leur adoption de l'IA. En effet, plus d'un tiers des projets d'IA et d'analyse de données dans le nuage échouent en raison de la mauvaise qualité de ces données, d’après le rapport d’enquête.

    Afin de comprendre ce problème qui empêche l’épanouissement des entreprises de données aux Etats-Unis, le spécialiste des données Trifacta, en collaboration avec Researchscape, a interrogé 600 professionnels des données de différents secteurs. Le but étant d'examiner comment les organisations gèrent la transition accélérée des données vers le cloud, les obstacles du nettoyage des données pour l'analyse, les contraintes de temps auxquelles elles sont confrontées lors de la préparation des données et l'impact de ces obstacles sur la réussite globale de ces projets.

    Nom : ai01.jpg
Affichages : 919
Taille : 67,3 Ko

    Selon le rapport intitulé « Obstacles to AI & Analytics Adoption in the Cloud », si les organisations ont fait de grands progrès dans la mise en œuvre de l'IA/ML dans leurs processus de données et d'analyse de données, l'un des plus grands défis auxquels les répondants sont confrontés est l'exactitude des données.

    L’adoption massive et rapide du cloud pour les nouveaux projets IA

    L'essor de technologies comme l'IA et le Machine Learning pousse à passer à des entrepôts de données et des architectures de lacs de données évolutifs et en nuage. Cela permet non seulement aux organisations d'être plus rentables, mais aussi d'accroître leur agilité. Ce qui leur permet de se concentrer sur la valeur ajoutée de l'analyse plutôt que sur la gestion de l'infrastructure.

    Lorsque les travailleurs du secteur des données aux États-Unis ont été interrogés sur l'utilisation actuelle et prévue des données pour les nouveaux projets, 66 % des personnes répondants ont déclaré que la totalité ou la plupart de leurs initiatives d’analyses et d'AI/ML sont réalisées dans le cloud, 69 % indiquent que leur entreprise utilise l'infrastructure du cloud pour la gestion des données et 68 % des professionnels de l'informatique utilisent le cloud pour stocker une partie ou la totalité de leurs données, une tendance qui ne peut que s'accentuer. Selon le rapport d’enquête, 88 % des professionnels de l'informatique estiment que, dans deux ans, toutes ou la plupart de leurs données seront stockées dans le nuage.

    Nom : ai02.png
Affichages : 836
Taille : 27,5 Ko

    « La croissance du cloud computing est fondamentale pour l'avenir de l'IA, des initiatives d'analyse et d'apprentissage machine », a déclaré Adam Wilson, PDG de Trifacta. « Malheureusement, le rythme et l'ampleur de cette croissance soulignent la nécessité d'une préparation coordonnée des données, car la qualité des données reste l'un des principaux obstacles à la modernisation des processus d'analyse dans le nuage par toutes les organisations ».

    La mauvaise qualité des données constitue un obstacle majeur à l'adoption de l'IA et l’analyse des données dans le nuage

    Malgré la croissance massive du cloud computing pour l’IA et l’analyse des données, les résultats de l'enquête montrent qu’il y a de nombreux défis à relever. Les résultats de l’enquête montrent que la préparation correcte des données est un problème permanent, 46 % des personnes interrogées y consacrant plus de 10 heures pour une initiative d'analyse et d'AI/ML, tandis que d'autres consacrent plus de 40 heures par semaine aux seuls processus de préparation des données. Par ailleurs, 60 % des répondants parmi les cadres supérieurs utilisent actuellement l'IA pour préparer les données, d’après l’enquête.

    Bien que le processus de préparation des données semble prendre trop de temps, la mauvaise préparation ou la négligence de cette étape conduit à des problèmes reconnus à un niveau supérieur. En effet, parmi les personnes interrogées de la catégorie des cadres supérieurs, 38 % affirment que la mauvaise qualité des données est à l’origine du retard dans les projets d’analyses et d'IA/ML, tandis que 36 % disent qu'ils coûtent plus cher ou n'atteignent pas les résultats escomptés (33 %). Étant donné que 71 % des organisations dépendent de l'analyse des données pour prendre leurs futures décisions commerciales, ces inefficacités drainent les ressources et empêchent de recueillir des informations essentielles à la croissance globale de l'entreprise.

    Nom : ai03.png
Affichages : 858
Taille : 68,5 Ko

    La préparation des données est essentielle à la réussite de tout projet d'analyse. Selon les résultats de l’enquête, certaines des principales conséquences de l'inexactitude des données résultent d'une mauvaise estimation de la demande (59 %) et du ciblage de mauvaises perspectives (26 %). Selon l’enquête, les décisions prises à partir des données s'amélioreraient si les organisations étaient en mesure d'intégrer un ensemble plus large de données dans leur analyse, comme les données non structurées de tiers provenant de clients, les données semi-structurées ou les données provenant de bases de données relationnelles.

    Seuls 26% ont déclaré lors de l’enquête que leurs données sont complètement exactes avant la préparation et le nettoyage.

    Selon le rapport d’enquête, un ensemble de données propre est essentiel pour les projets d'IA et de ML, mais comme les sources de données augmentent, à la fois dans le nuage et sur site, il est difficile pour les entreprises de lutter contre les problèmes causés par les incohérences et l'inexactitude des données. En effet, 90 % des données mondiales ont été créées au cours des deux dernières années et l'on s'attend à ce que d'ici 2020, 463 exabytes de données soient créés chaque jour à partir des Wearables, de réseaux de médias sociaux, de communications (entreprises et consommateurs), de transactions et d'appareils connectés, d’après le rapport.

    Le rapport retient également que les organisations ne peuvent plus compter sur l’intégration des données héritées et cloisonnées pour traiter la vitesse, l'échelle et la diversité des données actuelles. Selon le Harvard Business Review cité par le rapport, « La mauvaise qualité des données est l'ennemi numéro un de l'utilisation rentable et généralisée de l'apprentissage machine ».

    Source : Trifacta

    Et vous ?

    Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
    Que pensez-vous des chiffres du rapport ?

    Lire aussi

    L'année 2020 marquera les débuts d'une véritable adoption de l'IA dans les entreprises, selon une étude d'IBM
    Accenture : seulement 16 % des entreprises ont trouvé comment faire fonctionner l'IA à échelle, conduisant à un rendement d'environ trois fois supérieur à celui des autres entreprises
    2/3 des utilisateurs d'IA déclarent que les technologies de l'IA jouent un rôle essentiel dans leur entreprise, selon un rapport de Deloitte
    Le nombre de projets d'IA dans les entreprises devrait doubler au cours de l'année prochaine, selon Gartner
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expérimenté
    Inscrit en
    janvier 2006
    Messages
    429
    Détails du profil
    Informations forums :
    Inscription : janvier 2006
    Messages : 429
    Points : 1 338
    Points
    1 338
    Par défaut Excès de confiance
    Citation Envoyé par Stan Adkens Voir le message
    Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
    Pas sûr de comprendre le terme "manque de confiance" ici. Mais je confirme l'importance de la préparation des données. J'ai même un exemple concret, où un excès de confiance dans les données a conduit a des défaillances de l'IA.
    L'exemple, c'est celui des traducteurs automatiques à base de statistiques, comme Google Translate et DeepL. Bon, certains diront sans doute qu'on est passé aux moteurs neuronaux, mais fondamentalement, le principe reste le même: absorber de grandes quantités de traductions déjà faites et laisser une IA "apprendre" des règles qu'elle seule comprend.

    Au début, cette technique s'est avérée extrêmement efficace. On a tous vu des exemples où des expressions toutes faites comme "il pleut des cordes" étaient correctement traduites là où les anciens systèmes donnaient une traduction littérale, quasi mot à mot. Mais c'est seulement parce que ces expressions apparaissaient dans beaucoup de textes que l'ordinateur pouvait déduire une "règle" qui n'a de valeur que statistique.
    Pour améliorer encore le système, on y a ajouté toujours plus de textes déjà traduits, le système pouvant continuer d'apprendre progressivement.

    Et puis finalement ça a commencé à se dégrader.
    Que s'était-il passé?
    En fait les gens étaient tellement pressés d'ajouter sans cesse de nouvelles traductions, qu'ils ne se rendaient même plus compte que celles-ci provenaient... du traducteur automatique lui-même! Et alimenté par son propre travail, ça n’améliore absolument pas la qualité, bien au contraire: on dit parfois qu'un système peut apprendre de ses propres erreurs, mais là, comme il ne sait pas que ce sont des erreurs, c'est vraiment au sens littéral du terme!

    L'inconvénient de l'abondance de données, c'est qu'il faut quand même un humain pour faire le tri (et le turc mécanique a donc encore de beaux jours devant lui!)

  3. #3
    Membre émérite

    Profil pro
    Inscrit en
    janvier 2011
    Messages
    1 960
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : janvier 2011
    Messages : 1 960
    Points : 2 288
    Points
    2 288
    Par défaut
    Bonsoir,

    Vous aussi, pensez-vous que le manque de confiance dans les données conduit à des défaillances de l'IA ?
    Tout à fait !

    Surtout quand on brule les étapes... Genre ne pas avoir de dev/recettage/prod ! Combien de fois on assiste à des boites qui dégage le recettage pour des questions d'economie de programme ... C'est pire que mieux . La Dev devient recettage voir la prod ... et la qualité de la date devient pourrie

  4. #4
    Membre expert
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    juin 2004
    Messages
    655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : juin 2004
    Messages : 655
    Points : 3 046
    Points
    3 046
    Par défaut
    Quelle découverte, franchement !

    On a souvent tendance à oublier que dans un processus de traitement d'information, quel qu'il soit : shit in = shit out !!!

Discussions similaires

  1. Réponses: 1
    Dernier message: 06/08/2019, 10h33
  2. Réponses: 4
    Dernier message: 07/09/2007, 18h47
  3. Filtre dans les données d'un tableau dynamique
    Par lbar012001 dans le forum Excel
    Réponses: 2
    Dernier message: 07/06/2007, 15h06
  4. [VS2005] il manque un entrée dans les menus
    Par zooffy dans le forum Visual Studio
    Réponses: 1
    Dernier message: 22/05/2007, 15h59
  5. pb de cotes dans les données avec findfirst
    Par patbeautifulday1 dans le forum VBA Access
    Réponses: 2
    Dernier message: 16/05/2007, 16h57

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo