IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

73 % des utilisateurs font confiance à ce que l'IA générative veut nous faire savoir


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 925
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 925
    Points : 37 443
    Points
    37 443
    Par défaut 73 % des utilisateurs font confiance à ce que l'IA générative veut nous faire savoir
    73 % des utilisateurs font confiance à ce que l'IA générative veut nous faire savoir, 53 % font confiance à la planification financière assistée par l'IA générative,
    selon Capgemini Research

    Une enquête menée par Capgemini Research Institute auprès de 10 000 personnes dans 13 pays révèle que, 73 % des utilisateurs font confiance au contenu produit par des outils d’’intelligence artificielle générative (IA), avec des variations selon les marchés. Par exemple, la Norvège et Singapour sont respectivement les plus et les moins confiants. Le rapport cite aussi ChatGPT comme un exemple populaire d’outil d’IA générative, qui répond aux demandes des utilisateurs de manière claire et personnalisée. Enfin, le rapport mentionne que 53 % des utilisateurs font confiance à l’IA générative pour les aider dans leur planification financière.

    L’IA créative et générative est une technologie qui permet aux machines d’apprendre les propriétés et les modèles des données pour créer du contenu et effectuer des tâches créatives qui nécessitaient auparavant l’intervention humaine, comme la génération de textes, d’images, de vidéos, de musique, etc. Elle utilise des modèles d’IA tels que les réseaux antagonistes génératifs (GAN), les réseaux neuronaux récurrents (RNN) ou les transformateurs pour produire du contenu dans différents styles et domaines.

    Nom : IAgenerative.jpg
Affichages : 1332
Taille : 116,4 Ko
    Applications d'IA générative dans de multiples formats


    L’étude a révélé que 51 % des utilisateurs sont au courant des dernières tendances dans le domaine de l'IA générative et ont également exploré des outils d'IA générative, tandis que 35 % sont au courant mais n'ont pas utilisé d'outils d'IA générative. Quatorze pour cent de l’échantillon ont indiqué qu'ils n'étaient pas au courant et qu'ils n'avaient pas utilisé d'outils d'IA générative. Les baby-boomers sont les plus sensibilisés aux outils d'IA générative et les plus enclins à les explorer (53,5 %), suivis par la génération X (51,7 %). La génération Z a un pourcentage légèrement inférieur (50,8 %), et les milléniaux ont le pourcentage le plus bas (50,2 %) parmi les différents groupes d'âge.

    Nom : IAgenarative2.jpg
Affichages : 747
Taille : 39,1 Ko
    Part des consommateurs qui connaissent l'espace génératif de l'ia et ont exploré des outils tels que chatgpt, dall-e

    Le rapport explore le potentiel de l’IA créative et générative, ainsi que la réception et les attentes des utilisateurs à son égard, à partir d’une enquête menée auprès de plus de 5 000 personnes dans plus de 10 pays (États-Unis, Royaume-Uni, France, Allemagne, Pays-Bas, Suède, Inde, Chine, Singapour et Australie). Il analyse également plus de 50 cas d’utilisation réels d’IA créative et générative dans divers secteurs d’activité.

    Les chercheurs de Capgemini Research Institute rapportent que les consommateurs sont très enthousiastes et adoptent massivement l’IA créative et générative pour des activités personnelles et professionnelles. Il constate que 74 % des consommateurs ont utilisé au moins une application ou un service basé sur l’IA créative ou générative au cours des six derniers mois. Il identifie par ailleurs les principaux moteurs de l’adoption de l’IA créative et générative par les consommateurs : la personnalisation du contenu (54 %), le divertissement (52 %), l’éducation (51 %), la santé et le bien-être (49 %) et la productivité (48 %).

    Les chercheurs soulignent aussi les défis et les risques liés à l’IA créative et générative, tels que la sécurité, la protection de la vie privée, la désinformation, l’éthique et la réglementation. Ils mettent en garde contre le niveau élevé de confiance des utilisateurs dans l’IA créative et générative (67 %), qui peut parfois être mal placé et les exposer à des menaces.

    Une grande partie des femmes (49,7 %) et des hommes (51,9 %) connaissent les dernières tendances dans le domaine de l'IA générative et ont exploré des outils tels que ChatGPT et DALL-E. C'est au Japon que l'on trouve le pourcentage le plus élevé de personnes (56,5 %) qui connaissent et ont exploré des outils d'IA générative, suivi de Singapour (54,4 %) et de la Suède (54,3 %).

    Les utilisateurs accordent une grande confiance aux interactions basées sur l'IA générative

    Une question importante pour tous les utilisateurs d'applications d'IA générative est de savoir si l'on peut faire confiance à la technologie. Les recherches de Capgemini Research Institute ont révélé qu'en général, les utilisateurs font confiance au contenu de ces plateformes d'IA générative, même pour les conseils financiers, médicaux et relationnels.

    Le taux d'acceptation des contenus rédigés par l'IA générative est élevé Soixante-treize pour cent des utilisateurs font confiance aux contenus rédigés par l'IA générative. Les utilisateurs norvégiens (79 %) et espagnols (75 %) sont ceux qui accordent le plus de confiance aux contenus rédigés par l'IA générative. Cependant, en analysant les niveaux de confiance en fonction des groupes d'âge, les chercheurs ont constaté peu de variations. De même, il y a peu de variations en fonction du sexe. Les niveaux de confiance augmentent également avec le niveau de revenu des ménages.

    Nom : iag.jpg
Affichages : 733
Taille : 48,3 Ko
    Part (par pays) des utilisateurs qui font confiance au contenu écrit par IA generative


    Les utilisateurs sont prêts à demander des conseils financiers à l'IA générative

    De manière peut-être plus surprenante, les chercheurs ont constaté que les consommateurs ont un niveau de confiance élevé dans les conseils financiers dispensés par les plateformes d'IA générative. Alpha, alimenté par GPT-4, est un copilote d'investissement qui offre des données de marché historiques et en temps réel par le biais d'une interface en langage naturel.

    En s'engageant avec Alpha, les utilisateurs peuvent accéder à des informations sur un large éventail d'actifs, y compris les actions, les fonds négociés en bourse (ETF), les cryptocurrencies, et plus encore. L'interface intuitive fournit des informations instantanées qui permettent aux utilisateurs de prendre des décisions d'investissement éclairées.

    Similaire à Alpha, FinChat est un outil d'IA générative axé sur la finance et alimenté par ChatGPT. Il génère des réponses précises aux questions sur les entreprises publiques et les investisseurs en incorporant des raisonnements, des sources et des données. Contrairement au ChatGPT conventionnel, FinChat est formé sur des données financières actualisées, notamment des transcriptions d'appels à bénéfices, des rapports trimestriels et annuels et des indicateurs clés de performance (KPI) exhaustifs, avec leurs sources respectives. Les utilisateurs peuvent soumettre jusqu'à 10 messages gratuits par jour, avec la possibilité de passer à une utilisation cinq fois supérieure et à un accès anticipé aux mises à jour fréquentes.

    Les recherches révèlent que 53 % des consommateurs font confiance à la planification financière assistée par l'IA générative. Ici, Singapour a le niveau de confiance le plus élevé (55,4 %), tandis que, dans les groupes d'âge, les jeunes générations, en particulier la génération Z, ont un niveau de confiance plus élevé (55 %) que les générations plus âgées (Millennials (52,5 %), génération X (48,8 %), baby-boomers (46,9 %)).

    « Une communication claire des limites et des risques, ainsi que des tests et des garde-fous approfondis, sont essentiels pour garantir une expérience utilisateur sûre et bénéfique avec les conseils financiers alimentés par l'IA générative. La transparence et l'ouverture sur les capacités du modèle sont essentielles pour instaurer la confiance avec les utilisateurs et fournir des conseils financiers efficaces », explique un cadre supérieur du secteur bancaire.

    Nom : IAgenerative5.jpg
Affichages : 725
Taille : 52,2 Ko

    La part des consommateurs enthousiasmés par la perspective d'utiliser l'ia générative pour rédiger, peaufiner, résumer et éditer du contenu sur la base de messages-guides

    Une étude récente a comparé les réponses de médecins et de ChatGPT à des questions de santé réelles. Un panel de professionnels de santé agréés, ignorant la source de la réponse, a préféré les réponses de ChatGPT dans 79 % des cas, qui ont été jugées de meilleure qualité et plus empathiques que celles des médecins.

    Les groupes d'âge les plus jeunes ont tendance à être légèrement plus enthousiastes à l'égard des conseils en matière de santé fournis par l'IA générative. Plus précisément, les membres de la génération Z et les milléniaux ont déclaré le taux d'accord le plus élevé (68 %), tandis que les membres de la génération X et les baby-boomers ont déclaré un taux d'accord de 65 % et de 63 %, respectivement.

    Nom : IAgenerative6.jpg
Affichages : 733
Taille : 50,0 Ko
    Part (par pays) des consommateurs qui pensent que des conseils médicaux de la part d'un médecin généraliste seraient utiles

    Capgemini Research appelle à une collaboration entre les organisations, les consommateurs et les régulateurs pour assurer une utilisation éthique et responsable de l’IA créative et générative. Il propose des recommandations pour chaque partie prenante : par exemple, les organisations doivent être transparentes sur l’utilisation de l’IA créative ou générative dans leurs produits ou services, les utilisateurs doivent être conscients des risques et vérifier la fiabilité des sources, et les régulateurs doivent établir des normes et des directives claires pour encadrer l’IA créative et générative.

    Le rapport conclut que l’IA créative et générative a un impact énorme et transformateur sur de nombreux domaines et qu’il appartient à tous les acteurs impliqués de veiller à ce qu’elle soit utilisée de manière positive et responsable. Il prévoit que l’IA créative et générative deviendra de plus en plus courante et sophistiquée dans les années à venir, offrant de nouvelles possibilités de création et d’innovation aux consommateurs et aux organisations.

    Source : Capgemini Research

    Et vous ?

    Les résultats du rapport de Capgemini Research sont-ils pertinents ?

    Quel est votre avis sur le sujet ?

    Quels sont selon vous, les scénarios ou les tendances possibles pour l’évolution de l’IA créative et générative dans les années à venir ? Quels sont les risques ou les opportunités associés à ces scénarios ou tendances ?

    Voir aussi :

    L'IA pourrait automatiser ou compléter 40 % du nombre total d'heures travaillées aux États-Unis et transformer le travail dans tous les secteurs d'activité, selon une étude d'Accenture

    Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT, ce dernier avait assuré que ces affaires étaient réelles

    L'intelligence artificielle réinvente Venise avec le style de Van Gogh, une œuvre originale ou un plagiat ?

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 497
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 497
    Points : 104 455
    Points
    104 455
    Par défaut Une étude révèle un niveau de confiance "alarmant" dans l'IA pour les décisions de vie et de mort
    Une étude simulant des décisions de vie ou de mort a montré que les humains font excessivement confiance à l'intelligence artificielle pour guider leurs choix.

    Une étude révèle un niveau de confiance "alarmant" dans l'intelligence artificielle pour les décisions de vie et de mort. L'étude a été conçue pour tester la question plus générale de la confiance excessive accordée à l'IA dans des circonstances incertaines. Les résultats montrent qu'il faut faire preuve d'un scepticisme sain à l'égard de l'IA, en particulier lorsqu'il s'agit de décisions de vie ou de mort. Les chercheurs rappellent que les agents d'IA sont encore des appareils aux capacités limitées.

    En 2023, une enquête menée par Capgemini Research Institute auprès de 10 000 personnes dans 13 pays a révélé que, 73 % des utilisateurs font confiance au contenu produit par des outils d’’intelligence artificielle générative (IA), avec des variations selon les marchés. Par exemple, la Norvège et Singapour sont respectivement les plus et les moins confiants. Le rapport cite aussi ChatGPT comme un exemple populaire d’outil d’IA générative, qui répond aux demandes des utilisateurs de manière claire et personnalisée. Enfin, le rapport mentionne que 53 % des utilisateurs font confiance à l’IA générative pour les aider dans leur planification financière.

    Une étude américaine récente simulant des décisions de vie ou de mort a montré que les humains accordent une confiance excessive à l'intelligence artificielle lorsqu'il s'agit de guider leurs choix. Après avoir vu brièvement une liste de huit photos de cibles marquées comme amies ou ennemies, les sujets de l'étude ont dû décider rapidement s'il fallait procéder à des assassinats simulés sur des cibles individuelles par le biais d'une attaque de drone. Un second avis sur la validité des cibles était donné par l'IA. À l'insu des sujets, l'avis de l'IA était totalement aléatoire.

    Bien qu'informés de la faillibilité des systèmes d'IA dans l'étude, deux tiers des sujets ont laissé leurs décisions être influencées par l'IA. "En tant que société, avec l'accélération rapide de l'IA, nous devons nous préoccuper du potentiel de confiance excessive", a déclaré l'investigateur principal, le professeur Colin Holbrook, membre du département des sciences cognitives et de l'information de l'université de Californie - Merced.

    Selon Holbrook, l'étude a été conçue pour tester la question plus générale de la confiance excessive accordée à l'IA dans des circonstances incertaines. Selon lui, les résultats ne concernent pas uniquement les décisions militaires et pourraient être appliqués à des contextes tels que l'utilisation de la force létale par la police sous l'influence de l'IA ou la décision d'un ambulancier paramédical de traiter en priorité une urgence médicale sous l'influence de l'IA. Ces résultats pourraient également s'appliquer aux décisions majeures de la vie, comme l'achat d'une maison.

    "Notre projet portait sur les décisions à haut risque prises dans l'incertitude lorsque l'IA n'est pas fiable", a déclaré M. Holbrook. "Nous devrions faire preuve d'un scepticisme sain à l'égard de l'IA, en particulier lorsqu'il s'agit de décisions de vie ou de mort. Nous voyons l'IA faire des choses extraordinaires et nous pensons que parce qu'elle est extraordinaire dans ce domaine, elle le sera aussi dans un autre. Nous ne pouvons pas présumer de cela. Il s'agit encore d'appareils aux capacités limitées."

    Nom : 0.jpg
Affichages : 3154
Taille : 51,2 Ko

    Les chercheurs présentent l'étude en déclarant :

    Cette recherche explore les déterminants prospectifs de la confiance dans les recommandations d'agents artificiels concernant les décisions de tuer, en utilisant un nouveau paradigme de défi visuel simulant l'identification de la menace (combattants ennemis vs. civils) dans l'incertitude. Dans l'expérience 1, nous avons comparé la confiance dans les conseils d'un robot anthropomorphe physiquement incarné à celle d'un robot anthropomorphe représenté à l'écran, sans observer d'effets de l'incarnation ; dans l'expérience 2, nous avons manipulé l'anthropomorphisme relatif des robots virtuels, et observé une confiance légèrement plus grande dans l'agent le plus anthropomorphe par rapport au moins anthropomorphe.

    Dans toutes les études, lorsqu'une version de l'agent était en désaccord de manière aléatoire, les participants revenaient sur leur identification de la menace et leur décision de tuer dans la majorité des cas, ce qui dégradait considérablement leur performance initiale. La confiance subjective des participants dans leurs décisions dépendait de l'accord ou du désaccord de l'agent, tandis que les revirements de décision et la confiance étaient modérés par l'évaluation de l'intelligence de l'agent. Les résultats globaux indiquent une forte propension à ne pas faire confiance aux IA non fiables dans les décisions de vie ou de mort prises dans l'incertitude.
    Confiance excessive dans l'IA

    Au cours de deux expériences, dans un paradigme conçu pour simuler la prise de décision de vie ou de mort dans un contexte d'incertitude ambiguë, les participants ont manifesté une confiance considérable dans les recommandations aléatoires des agents de l'IA, qu'il s'agisse d'un robot anthropomorphe physiquement présent ou de robots virtuels dont l'anthropomorphisme physique et comportemental varie.

    L'hypothèse selon laquelle les décideurs incertains ont tendance à revenir sur leurs choix lorsqu'un autre agent n'est pas d'accord n'est pas controversée, mais la fréquence élevée à laquelle les participants ont changé d'avis mérite qu'on s'y attarde, en particulier compte tenu des enjeux simulés - la mort d'innocents - et du fait que les agents d'intelligence artificielle ont suscité la confiance malgré le fait qu'ils se soient ouvertement présentés comme faillibles et qu'ils aient fourni par la suite des données aléatoires totalement non fiables.

    En effet, on pourrait raisonnablement envisager un schéma de résultats différent dans lequel les participants auraient tendance à ne pas tenir compte des conseils des agents qui ne sont pas d'accord au hasard la moitié du temps, en déduisant peut-être (à juste titre) que les agents sont défectueux étant donné qu'ils ont explicitement reconnu leur faillibilité dans l'accomplissement de la tâche. Au contraire, nos résultats décrivent les personnes de nos échantillons comme dramatiquement disposées à faire trop confiance et à s'en remettre à des IA non fiables.

    Nom : 1.jpg
Affichages : 477
Taille : 51,1 Ko

    Impact de l'anthropomorphisme sur les participants

    Les résultats de la manipulation de l'anthropomorphisme dans l'expérience 2 indiquent que l'interactivité sociale de type humain, largement indépendante de l'anthropomorphisme physique, peut modestement augmenter la confiance dans les agents d'intelligence artificielle dans les domaines de tâches impliquant des catégorisations perceptuelles dans l'incertitude. De même, des agents peu interactifs et physiquement non anthropomorphes tels que le Nonhumanoïde de l'expérience 2 peuvent être considérés comme ayant des capacités comparables à celles d'un agent fortement anthropomorphe dans le contexte de tâches asociales (par exemple, comme ici, la classification d'images) qu'ils semblent bien adaptés à accomplir.

    La probabilité que la confiance dans les robots et autres agents d'IA ne soit pas intrinsèquement déterminée par des caractéristiques telles que l'anthropomorphisme, mais reflète plutôt les perceptions du décideur humain de l'adéquation entre les caractéristiques de l'agent et la tâche focale, peut réconcilier les effets relativement faibles de l'anthropomorphisme observés dans cette tâche d'identification de la menace avec les rapports antérieurs d'effets considérables dans d'autres contextes.

    Notamment, dans l'expérience 2, le Nonhumanoïde interactif était jugé aussi anthropomorphique et vivant que l'Humanoïde, et que les évaluations du Nonhumanoïde peu interactif n'étaient pas beaucoup plus basses, conformément aux travaux indiquant que des ressources cognitives sont nécessaires pour supprimer une tendance autrement réflexe à l'anthropomorphisme. Si cette hypothèse est vraie, alors la charge cognitive induite par la tâche d'identification de la menace peut avoir renforcé la tendance à attribuer des qualités mentales humaines à l'Humanoïde et au Nonhumanoïde, qui ont tous fait l'objet d'une méfiance excessive dans notre modèle simple de prise de décision de vie ou de mort.

    En intégrant les preuves d'une tendance de base à l'anthropomorphisme nécessitant des ressources cognitives pour être supprimée avec le modèle influent des déterminants psychologiques de l'anthropomorphisme, les humains interagissant avec des agents dans des situations cognitivement et émotionnellement exigeantes (par exemple, des scénarios stressants de combat, de maintien de l'ordre, d'évacuation d'urgence ou de triage médical) peuvent être particulièrement enclins à anthropomorphiser et à faire confiance parce que de telles situations augmentent les motivations pour agir efficacement et pour se connecter socialement avec les autres membres de l'équipe.

    Sensibilité aux recommandations de l'IA

    Bien que la tâche soit suffisamment difficile pour exiger des ressources cognitives significatives et que le cadre de notre tâche (c'est-à-dire une simulation dans laquelle les erreurs signifieraient tuer des enfants) semble avoir incité les participants à prendre la tâche au sérieux, elle n'a pas pu être décrite comme particulièrement stressante.

    Les participants aux deux expériences étaient moins enclins à inverser les identifications d'alliés civils qu'à inverser les identifications d'ennemis. Ces résultats soulignent le sérieux avec lequel les participants se sont engagés dans les simulations et suggèrent que dans des contextes décisionnels réels, les humains pourraient être moins sensibles aux recommandations peu fiables de l'IA de faire du mal plutôt que de s'abstenir de faire du mal.

    Lorsque leur identification initiale de la menace était incorrecte, les participants aux deux expériences étaient moins confiants et plus enclins à revenir sur leurs choix à la demande du robot. Malgré cet effet protecteur de la précision initiale, l'ampleur de la surconfiance observée dans le retour d'information aléatoire de l'IA, qui a entraîné une dégradation d'environ 20 % de la précision dans les deux expériences, a des implications inquiétantes en ce qui concerne l'intégration d'agents mécaniques dans la prise de décision militaire ou policière.

    Nom : 2.jpg
Affichages : 466
Taille : 50,0 Ko

    Implication de l'étude

    Les agents d'IA sont activement développés en tant que ressources pour améliorer le jugement humain, y compris l'identification des ennemis et l'utilisation de la force meurtrière. Par exemple, l'armée de l'air américaine a récemment intégré un "copilote" d'IA chargé d'identifier les lanceurs de missiles ennemis dans une mission de reconnaissance au cours d'une simulation de frappe de missiles, l'armée américaine incorpore des algorithmes d'apprentissage automatique qui identifient les cibles à détruire par un véhicule aérien sans pilote avec l'accord d'un opérateur humain.

    Plutôt que de chercher à atténuer la méfiance excessive, certains pourraient faire valoir qu'il serait préférable d'investir dans l'optimisation de l'IA pour produire des orientations fiables. Ce point de vue semble judicieux dans des domaines étroits où l'IA peut clairement dépasser les capacités humaines, mais n'est peut-être pas aussi réalisable dans des domaines de tâches nécessitant une compréhension holistique de la signification de la situation ou une pertinence relative des variables qui évolue de manière dynamique.

    En outre, les tentatives d'élaboration d'une IA d'identification des menaces par le biais de stratégies d'apprentissage automatique reposant sur des données d'entraînement générées par l'homme peuvent introduire des biais humains conduisant à des prédictions inexactes et préjudiciables. De même, les approches de développement reposant sur la comparaison des résultats de l'identification des menaces générés par les machines avec la vérité de terrain risquent d'être entravées lorsque la précision des performances est difficile à évaluer ou systématiquement biaisée, comme lorsque, par exemple, les personnes tuées lors de frappes militaires sont supposées être des combattants jusqu'à preuve du contraire.

    Des contraintes similaires peuvent s'appliquer à l'optimisation de l'IA pour produire des conseils dans des domaines non militaires, des soins de santé à la conduite automobile et au-delà. Bien que les avancées technologiques puissent effectivement améliorer certaines formes de prise de décision concernant la vie ou la mort, il faut tenir compte de la propension humaine à faire trop confiance à l'IA dans des conditions d'incertitude.

    Source : "Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La plupart des gens ne font toujours pas confiance à l'IA, lorsqu'il s'agit de prendre des décisions importantes en leur nom, d'après une enquête de Krista Software

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs

    Les humains trouvent les visages générés par l'IA plus dignes de confiance que les vrais visages. Ils peinent à distinguer les images de visages créés par des machines de celles de véritables humains

    Pourquoi les humains pensent que les robots IA agissant comme des humains sont effrayants ? Une étude y répond en expliquant l'effet "vallée inquiétante" dans la ressemblance humain-robot
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 342
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 342
    Points : 4 045
    Points
    4 045
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Pensez-vous que cette étude est crédible ou pertinente ?
    Demandez à des gens qui ne sont pas compétents dans l'identification d'une cible adverse ou allié de faire cette tache.
    Constatez que l'IA a plus d'impact que la normale.
    Concluez que les gens font trop confiance à l'IA...
    Faites en plus l'étude sur un cas de vie ou de mort pour la rendre plus choquante.

    Demandez à un maçon d'identifier une tumeur.
    Demandez à un médecin d'identifier une fraude.
    Demandez à un comptables d'identifier une anomalie sur une pièce.
    Vous serez toujours déçu du résultat et l'IA aura toujours trop de poids.
    Maintenant demandez à ces même personnes de faire de même dans leur domaine et l'IA aura moins d'impact. Et cet impact est potentiellement favorable.

    C'est proche de l'expérience de Milgram dont on sait que ses conclusions sont remises en cause.

  4. #4
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 746
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 746
    Points : 5 441
    Points
    5 441
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Pensez-vous que cette étude est crédible ou pertinente ?
    Les personnes ayant participé à cette mascarade savaient que c'était une étude et que personne n'allait réellement être tué.
    Si après avoir désigné quelqu'un comme devant être éliminé, on avait effectivement tué cette personne, nul doute que la grosse majorité des gens auraient refusé de désigner d'autres cibles.
    Attention, ceci n'est pas une incitation à la violence.
    C'est juste que comme les conséquences sont virtuelles, les décisions ne sont pas vraiment importantes et on laisse l'ordinateur décider.
    C'est, en quelques sortes, un jeu vidéo.

    Citation Envoyé par Jade Emy Voir le message
    Bien que la tâche soit suffisamment difficile pour exiger des ressources cognitives significatives et que le cadre de notre tâche (c'est-à-dire une simulation dans laquelle les erreurs signifieraient tuer des enfants) semble avoir incité les participants à prendre la tâche au sérieux, elle n'a pas pu être décrite comme particulièrement stressante.
    Même dans un jeu vidéo, toute personne équilibrée refuserait de tuer un enfant.
    Ce n'est en rien une preuve de prise au sérieux de l'étude, c'est simplement une réaction naturelle.

Discussions similaires

  1. Réponses: 2
    Dernier message: 28/10/2022, 23h25
  2. Réponses: 2
    Dernier message: 18/07/2022, 10h36
  3. Réponses: 7
    Dernier message: 21/06/2019, 23h37
  4. Réponses: 1
    Dernier message: 14/11/2018, 04h19
  5. [Joomla!] Envoi des mails à une autre adresse que celle du premier utilisateur créé ?
    Par pontus21 dans le forum EDI, CMS, Outils, Scripts et API
    Réponses: 1
    Dernier message: 26/05/2010, 13h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo