IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

73 % des votants estiment que les entreprises spécialisées dans l'IA devraient être tenues responsables


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 568
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 568
    Points : 109 582
    Points
    109 582
    Par défaut 73 % des votants estiment que les entreprises spécialisées dans l'IA devraient être tenues responsables
    73 % des votants estiment que les entreprises spécialisées dans l'IA devraient être tenues responsables des dommages causés par les modèles d'IA, selon une enquête de l'AIPI.

    Un nouveau sondage révèle que 73 % des votants estiment que les entreprises spécialisées dans l'IA devraient être tenues responsables des dommages causés par la technologie qu'elles créent, 67 % pensent que le pouvoir des modèles d'IA devrait être limité et 65 % estiment qu'il est plus important de garder l'IA hors des mains des mauvais acteurs que d'offrir les avantages de l'IA à tout le monde.

    Une nouvelle enquête de l'Artificial Intelligence Policy Institute (AIPI) révèle que le public américain souhaite réduire l'accès à l'IA pour la protéger des mauvaises mains et que les entreprises technologiques devraient être tenues responsables des préjudices causés par les modèles qu'elles créent. Le sondage, commandé par l'AIPI et réalisé par YouGov, montre que le grand public donne un coup de pouce décisif à une série d'interventions politiques visant à prévenir les effets potentiellement néfastes de l'IA et à empêcher sa prolifération incontrôlée.

    Voici quelques-unes des conclusions de l'enquête :

    • 73 % des votants estiment que les entreprises d'IA devraient être tenues pour responsables des dommages causés par la technologie qu'elles créent, contre seulement 11 % qui pensent qu'elles ne devraient pas l'être.
    • 77 % des votants sont favorables à une loi exigeant que les publicités politiques divulguent leur utilisation de l'IA, dont 64 % y sont tout à fait favorables, et seulement 10 % s'y opposent.
    • 64 % des votants sont favorables à la création par le gouvernement d'un organisme chargé d'auditer l'IA, tandis que 14 % seulement s'y opposent.
    • Par une marge de plus de 2:1, les votants préfèrent se concentrer sur la lutte contre les menaces puissantes et inconnues (46 %) plutôt que sur les menaces plus faibles et connues à court terme (22 %).
    • 65 % des votants donnent la priorité au fait d'empêcher l'IA de tomber entre les mains de mauvais acteurs, contre 22 % qui donnent la priorité au fait d'offrir les avantages de l'IA à tout le monde.
    • 73 % des votants souhaitent restreindre l'accès des entreprises chinoises à l'informatique en nuage des entreprises américaines, tandis que 9 % seulement pensent que les États-Unis devraient continuer à leur permettre d'y accéder.


    "Les votants américains affirment haut et fort qu'ils ne veulent pas que l'IA tombe entre de mauvaises mains et qu'ils attendent des entreprises technologiques qu'elles soient responsables de ce que leurs produits créent", a déclaré Daniel Colson, directeur exécutif de l'Artificial Intelligence Policy Institute (Institut de politique d'intelligence artificielle). "Les votants sont préoccupés par les progrès de l'IA, mais pas par le fait que les États-Unis se laissent distancer par la Chine ; ils s'inquiètent de la puissance qu'elle peut atteindre, de la rapidité avec laquelle elle peut le faire et du nombre de personnes qui y ont accès."

    Ce sondage est la troisième série de données publiées par l'Artificial Intelligence Policy Institute, un groupe de réflexion qui se consacre à la recherche sur l'opinion publique et à l'expertise politique en matière de réglementation de l'IA. L'AIPI continuera à mener des enquêtes fréquentes pour montrer la position des Américains sur les questions liées à l'intelligence artificielle et à fournir une analyse des propositions existantes émanant de Washington, D.C. L'IA évoluant chaque jour et les Américains se méfiant de ses progrès rapides, il est essentiel pour les décideurs politiques de faire face à ce moment avec urgence et en tenant compte de leurs votants.

    L'AIPI a été fondée pour servir de ressource de référence afin d'évaluer l'opinion publique américaine en matière d'IA et de fournir aux décideurs politiques et aux médias une meilleure compréhension des risques posés par l'intelligence artificielle, ainsi que des solutions permettant de limiter les pires scénarios. En mesurant l'opinion publique, l'AIPI montrera aux décideurs politiques qu'être actif dans la politique de l'IA n'est pas seulement la bonne voie à suivre sur le fond, mais aussi qu'une action est nécessaire pour mieux représenter leurs votants.

    Avec des années d'expérience dans le domaine, l'AIPI a une connaissance approfondie des dangers et des opportunités de l'IA. La menace qui pèse sur l'humanité est alarmante et les décideurs politiques doivent comprendre non seulement les conséquences économiques, mais aussi la possibilité que les prochaines phases de développement de l'IA entraînent le risque d'événements catastrophiques. L'AIPI propose une voie à suivre où les législateurs et les personnes influentes à Washington peuvent être informés par un ensemble commun et non partisan de ressources afin qu'ils puissent parler de manière collaborative, productive et urgente de la nécessité de contrôler le développement de l'IA et de la réglementer afin d'atténuer les risques les plus terribles. L'AIPI plaidera également en faveur d'un large éventail de politiques imposant des garde-fous et une surveillance de l'IA et du développement de la superintelligence.

    Source : AIPI

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Plus de 80 % des employés ne considèrent pas que l'IA puisse les remplacer sur le lieu de travail et 94 % ne font rien pour se préparer à cette éventualité, selon une étude de ID Crypt Global

    Quand l'IA se rebelle : un drone contrôlé par l'IA « tue » son opérateur humain lors d'une simulation. Il avait au préalable détruit la tour pour empêcher que l'opérateur ne lui donne des ordres

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

  2. #2
    Invité
    Invité(e)
    Par défaut Bien sûr...
    Exactement comme les entreprises de l'agro-industrie devraient être tenues responsables des ravages causés sur l'environnement et les populations, mais aussi les labos pharmaceutiques, les groupes du BTP comme lafarge, l'industrie pétrolière...

Discussions similaires

  1. Réponses: 14
    Dernier message: 27/07/2020, 14h19
  2. Réponses: 0
    Dernier message: 23/07/2020, 14h54
  3. Réponses: 0
    Dernier message: 28/03/2019, 23h02
  4. Réponses: 7
    Dernier message: 04/03/2017, 19h05
  5. Réponses: 30
    Dernier message: 19/03/2015, 14h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo